- A - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'A'
- abort(String, Throwable) - 接口 中的方法org.apache.hadoop.hbase.Abortable
-
Abort the server or client.
- abort(String, Throwable) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Cause the server to exit without closing the regions it is serving, the log
it is using and without notifying the master.
- abort(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- ABORT_ON_ERROR_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- Abortable - org.apache.hadoop.hbase中的接口
-
Interface to support the aborting of a given server or client.
- abortable - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortable - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Used to abort if a fatal error occurs
- abortable - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- abortCacheFlush(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- abortCacheFlush(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Abort a cache flush.
- abortProcedure(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Abort a procedure.
- abortProcedure(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
abort a procedure
- abortProcedure(long, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- abortProcedure(RpcController, MasterProtos.AbortProcedureRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- abortProcedure(long, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- abortProcedure(RpcController, MasterProtos.AbortProcedureRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- abortProcedure(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Abort a procedure.
- abortProcedureAsync(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Abort a procedure but does not block and wait for completion.
- abortProcedureAsync(long, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- abortProcedureResult(MasterProtos.AbortProcedureRequest) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- abortServer(E, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortServer(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- abortWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Close all writers without throwing any exceptions.
- ABOVE_HEAP_LOW_WATERMARK_COUNTER_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- ABOVE_HEAP_LOW_WATERMARK_COUNTER_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- AbstractByteRange - org.apache.hadoop.hbase.util中的类
-
An abstract implementation of the ByteRange API
- AbstractByteRange() - 类 的构造器org.apache.hadoop.hbase.util.AbstractByteRange
-
- AbstractClientScanner - org.apache.hadoop.hbase.client中的类
-
Helper class for custom client scanners.
- AbstractClientScanner() - 类 的构造器org.apache.hadoop.hbase.client.AbstractClientScanner
-
- AbstractDataBlockEncoder - org.apache.hadoop.hbase.io.encoding中的类
-
- AbstractDataBlockEncoder() - 类 的构造器org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder
-
- AbstractDataBlockEncoder.AbstractEncodedSeeker - org.apache.hadoop.hbase.io.encoding中的类
-
- AbstractEncodedSeeker(CellComparator, HFileBlockDecodingContext) - 类 的构造器org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder.AbstractEncodedSeeker
-
- AbstractFileStatusFilter - org.apache.hadoop.hbase.util中的类
-
Typical base class for file status filter.
- AbstractFileStatusFilter() - 类 的构造器org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- AbstractFSWAL<W extends WALProvider.WriterBase> - org.apache.hadoop.hbase.regionserver.wal中的类
-
Implementation of
WAL to go against
FileSystem; i.e. keep WALs in HDFS.
- AbstractFSWAL(FileSystem, Path, String, String, Configuration, List<WALActionsListener>, boolean, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- AbstractFSWALProvider<T extends AbstractFSWAL<?>> - org.apache.hadoop.hbase.wal中的类
-
Base class of a WAL Provider that returns a single thread safe WAL that writes to Hadoop FS.
- AbstractFSWALProvider() - 类 的构造器org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- AbstractFSWALProvider.Reader - org.apache.hadoop.hbase.wal中的接口
-
- AbstractHBaseSaslRpcClient - org.apache.hadoop.hbase.security中的类
-
A utility class that encapsulates SASL logic for RPC client.
- AbstractHBaseSaslRpcClient(AuthMethod, Token<? extends TokenIdentifier>, String, boolean) - 类 的构造器org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
Create a HBaseSaslRpcClient for an authentication method
- AbstractHBaseSaslRpcClient(AuthMethod, Token<? extends TokenIdentifier>, String, boolean, String) - 类 的构造器org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
Create a HBaseSaslRpcClient for an authentication method
- AbstractHBaseTool - org.apache.hadoop.hbase.util中的类
-
Common base class used for HBase command-line tools.
- AbstractHBaseTool() - 类 的构造器org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- AbstractMemStore - org.apache.hadoop.hbase.regionserver中的类
-
An abstract class, which implements the behaviour shared by all concrete memstore instances.
- AbstractMemStore(Configuration, CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- AbstractMultiFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
Base class for cell sink that separates the provided cells into multiple files.
- AbstractMultiFileWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
- AbstractMultiFileWriter.WriterFactory - org.apache.hadoop.hbase.regionserver中的接口
-
- AbstractPositionedByteRange - org.apache.hadoop.hbase.util中的类
-
- AbstractPositionedByteRange() - 类 的构造器org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- AbstractProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
Base class for Protobuf log writer.
- AbstractProtobufLogWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- AbstractRpcClient<T extends org.apache.hadoop.hbase.ipc.RpcConnection> - org.apache.hadoop.hbase.ipc中的类
-
Provides the basics for a RpcClient implementation like configuration and Logging.
- AbstractRpcClient(Configuration, String, SocketAddress, MetricsConnection) - 类 的构造器org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
Construct an IPC client for the cluster clusterId
- AbstractRpcClient.BlockingRpcChannelImplementation - org.apache.hadoop.hbase.ipc中的类
-
Blocking rpc channel that goes via hbase rpc.
- AbstractRpcClient.RpcChannelImplementation - org.apache.hadoop.hbase.ipc中的类
-
Async rpc channel that goes via hbase rpc.
- AbstractViolationPolicyEnforcement - org.apache.hadoop.hbase.quotas.policies中的类
-
- AbstractViolationPolicyEnforcement() - 类 的构造器org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
已过时。
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
Filters out a path.
- accept(FileStatus) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- accept(Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- accept(FileStatus) - 接口 中的方法org.apache.hadoop.hbase.util.FileStatusFilter
-
Tests whether or not the specified filestatus should be
included in a filestatus list.
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.BlackListDirFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.FamilyDirFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.HFileFilter
-
- accept(Path) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.HFileLinkFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.ReferenceFileFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.RegionDirFilter
-
- access(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
Block has been accessed.
- access(long) - 类 中的方法org.apache.hadoop.hbase.mob.CachedMobFile
-
- accessChecker - 类 中的变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- AccessDeniedException - org.apache.hadoop.hbase.security中的异常错误
-
Exception thrown by access-related methods.
- AccessDeniedException() - 异常错误 的构造器org.apache.hadoop.hbase.security.AccessDeniedException
-
- AccessDeniedException(Class<?>, String) - 异常错误 的构造器org.apache.hadoop.hbase.security.AccessDeniedException
-
- AccessDeniedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.security.AccessDeniedException
-
- AccessDeniedException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.security.AccessDeniedException
-
- ack(boolean) - 类 中的方法org.apache.hadoop.hbase.util.RegionMover.RegionMoverBuilder
-
Set ack/noAck mode.
- ACL_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.TagType
-
- acquireLock(K) - 类 中的方法org.apache.hadoop.hbase.util.KeyLocker
-
Return a lock for the given key.
- acquireLocks(Set<? extends K>) - 类 中的方法org.apache.hadoop.hbase.util.KeyLocker
-
Acquire locks for a set of keys.
- Action - org.apache.hadoop.hbase.client中的类
-
A Get, Put, Increment, Append, or Delete associated with it's region.
- Action(Row, int) - 类 的构造器org.apache.hadoop.hbase.client.Action
-
- Action(Row, int, int) - 类 的构造器org.apache.hadoop.hbase.client.Action
-
- Action(Action, int) - 类 的构造器org.apache.hadoop.hbase.client.Action
-
Creates an action for a particular replica from original action.
- actions - 类 中的变量org.apache.hadoop.hbase.client.MultiAction
-
- activateOptions() - 类 中的方法org.apache.hadoop.hbase.AsyncConsoleAppender
-
- active - 类 中的变量org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- ActiveMasterManager - org.apache.hadoop.hbase.master中的类
-
Handles everything on master-side related to master election.
- activeOperations - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- ActivePolicyEnforcement - org.apache.hadoop.hbase.quotas中的类
-
A class to ease dealing with tables that have and do not have violation policies
being enforced.
- ActivePolicyEnforcement(Map<TableName, SpaceViolationPolicyEnforcement>, Map<TableName, SpaceQuotaSnapshot>, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- ActivePolicyEnforcement(Map<TableName, SpaceViolationPolicyEnforcement>, Map<TableName, SpaceQuotaSnapshot>, RegionServerServices, SpaceViolationPolicyEnforcementFactory) - 类 的构造器org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- actualErrorRate() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
Computes the error rate for this Bloom filter, taking into account the
actual number of hash functions and keys inserted.
- actualErrorRate(long, long, int) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
Computes the actual error rate for the given number of elements, number
of bits, and number of hash functions.
- ADAPTIVE_COMPACTION_THRESHOLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- ADAPTIVE_INITIAL_COMPACTION_PROBABILITY_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- AdaptiveLifoCoDelCallQueue - org.apache.hadoop.hbase.ipc中的类
-
Adaptive LIFO blocking queue utilizing CoDel algorithm to prevent queue overloading.
- AdaptiveLifoCoDelCallQueue(int, int, int, double, LongAdder, LongAdder) - 类 的构造器org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- AdaptiveMemStoreCompactionStrategy - org.apache.hadoop.hbase.regionserver中的类
-
Adaptive is a heuristic that chooses whether to apply data compaction or not based on the
level of redundancy in the data.
- AdaptiveMemStoreCompactionStrategy(Configuration, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- add(byte[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
Add column and value to this Append operation.
- add(Map.Entry<byte[], List<Action>>) - 类 中的方法org.apache.hadoop.hbase.client.DelayingRunner
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Add an existing delete marker to this Delete object.
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Add the specified KeyValue to this operation.
- add(byte[], Action) - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
Add an Action to this container based on it's regionName.
- add(byte[], List<Action>) - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
Add an Action to this container based on it's regionName.
- add(byte[], int, Object) - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
Add the pair to the container, grouped by the regionName
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
Add the specified KeyValue to this Put operation.
- add(Put) - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- add(Delete) - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- add(Mutation) - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
Currently only supports
Put and
Delete mutations.
- add(List<? extends Mutation>) - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
Currently only supports
Put and
Delete mutations.
- add(Configuration) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
Add Hadoop Configuration object to config list.
- add(S, S) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- add(HDFSBlocksDistribution) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
This will add the distribution from input to this object
- add(LruCachedBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
Attempt to add the specified cached block to this queue.
- add(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- add(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Adds the server to the dead server list if it's not there already.
- add(Iterable<Cell>, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- add(Cell, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- add(Cell, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Adds a value to the memstore
- add(Iterable<Cell>, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Adds the specified value to the memstore
- add(Cell, MemStoreSizing) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Write an update
- add(Iterable<Cell>, MemStoreSizing) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Write the updates
- add(Cell, boolean, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.MutableSegment
-
Adds the given cell into the segment
- add(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DeleteTracker
-
Add the specified cell to the list of deletes to check against for this row operation.
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
Add the specified Cell to the list of deletes to check against for this row operation.
- add(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
Add a node to the cluster
- add(String, int) - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
Add a node to the cluster
- add(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Add or update descriptor
- add(DataType<?>) - 类 中的方法org.apache.hadoop.hbase.types.StructBuilder
-
Append field to the sequence of accumulated fields.
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- add(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- add(byte[], byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- add(byte[][]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- add(long) - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- add(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Adds (or updates) the table descriptor to the FileSystem
and updates the local cache with it.
- add(R) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
Adds an edge to the split calculator
- add(E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- add(int, E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- add(Cell, byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- add(Map<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
Append the given map of family->edits to a WALEdit data structure.
- addAll(Collection<? extends CallRunner>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- addAll(Collection<? extends Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- addAll(Collection<? extends E>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- addAll(int, Collection<? extends E>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- addAllServers(Collection<Address>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Adds the given servers to the group.
- addAllSublists(List<? extends List<T>>) - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists
-
- addAllTables(Collection<TableName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- addAndGet(Result[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.BatchScanResultCache
-
- addBytesMap(Map<Bytes, Bytes>) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
Add Bytes map to config list.
- addCallSize(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- addCallSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Add/subtract from the current size of all outstanding calls.
- addCellCount(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- addChangedReaderObserver(ChangedReadersObserver) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- addClientPort(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
Add a client port to the list.
- addClusterId(UUID) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
Marks that the cluster with the given clusterId has consumed the change
- addColumn(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- addColumn(byte[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
Add the specified column and value to this Append operation.
- addColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete the latest version of the specified column.
- addColumn(byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete the specified version of the specified column.
- addColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get the column from the specific family with the specified qualifier.
- addColumn(byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Increment the column from the specific family with the specified qualifier
by the specified amount.
- addColumn(byte[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
Add the specified column and value to this Put operation.
- addColumn(byte[], byte[], long, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
Add the specified column and value, with the specified timestamp as
its version to this Put operation.
- addColumn(byte[], ByteBuffer, long, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
Add the specified column and value, with the specified timestamp as
its version to this Put operation.
- addColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get the column from the specified family with the specified qualifier.
- addColumn(RpcController, MasterProtos.AddColumnRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- addColumn(TableName, ColumnFamilyDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- addColumn(RpcController, MasterProtos.AddColumnRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- addColumn(TableName, ColumnFamilyDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Add a new column to an existing table
- addColumn(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- addColumnFamily(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a column family to an existing table.
- addColumnFamily(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Add a column family to an existing table.
- addColumnFamily(TableName, ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- addColumnFamily(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- addColumnFamilyAsync(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a column family to an existing table.
- addColumnFamilyAsync(TableName, ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- addColumns(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete all versions of the specified column.
- addColumns(byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete all versions of the specified column with a timestamp less than
or equal to the specified timestamp.
- addColumns(Scan, byte[][]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Adds an array of columns specified using old format, family:qualifier.
- addCompactionResults(Collection<HStoreFile>, Collection<HStoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Adds only the new compaction results into the structure.
- addCompactionResults(Collection<HStoreFile>, Collection<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- addConfiguration(Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor.Builder
-
- addConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor.Builder
-
- addCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- addCoprocessor(String, Path, int, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- addCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Add a table coprocessor to this table.
- addCoprocessor(String, Path, int, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Add a table coprocessor to this table.
- addCoprocessorWithSpec(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- addCoprocessorWithSpec(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Add a table coprocessor to this table.
- addDaughtersToPut(Put, RegionInfo, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Adds split daughters to the Put
- addDefaultApps(ContextHandlerCollection, String, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add default apps.
- addDefaultServlets() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add default servlets.
- addDeleteFamilyBloomFilter(BloomFilterWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Store delete family Bloom filter in the file, which is only supported in
HFile V2.
- addDeleteFamilyBloomFilter(BloomFilterWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- addDeleteMarker(Cell) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- addDependencyJars(JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- addDependencyJars(Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add the HBase dependency jars as well as jars for any of the configured
job classes to the job configuration, so that JobClient will ship them
to the cluster and add them to the DistributedCache.
- addDependencyJars(Configuration, Class<?>...) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- addDependencyJarsForClasses(Configuration, Class<?>...) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add the jars containing the given classes to the job's configuration
such that JobClient will ship them to the cluster and add them to
the DistributedCache.
- addEndpoint(URI) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
Add an endpoint that the HTTP server should listen to.
- addEntry(byte[], long, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Add one index entry to the current leaf-level block.
- addEntry(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.io.util.Dictionary
-
Adds an entry to the dictionary.
- addEntry(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.util.LRUDictionary
-
- addEstimatedSize(long) - 类 中的方法org.apache.hadoop.hbase.client.ClientAsyncPrefetchScanner
-
- addEstimatedSize(long) - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- addException(byte[], Throwable) - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStatsBuilder
-
- addException(byte[], Throwable) - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- addExtraHeader(String, String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Add extra headers.
- addFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete all versions of all columns of the specified family.
- addFamily(byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete all columns of the specified family with a timestamp less than
or equal to the specified timestamp.
- addFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get all columns from the specified family.
- addFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get all columns from the specified family.
- addFamily(HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Adds a column family.
- addFamilyVersion(byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
Delete all columns of the specified family with a timestamp equal to
the specified timestamp.
- addFile(FileStatus) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- addFilter(List<Filter>) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- addFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
Add a filter.
- addFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.http.FilterContainer
-
Add a filter to the container.
- addFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- addFilterAndArguments(Configuration, Class<? extends Filter>, List<String>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Add a Filter to be instantiated on import
- addFilterLists(List<Filter>) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- addFilterLists(List<Filter>) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithAND
-
- addFilterLists(List<Filter>) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithOR
-
- addFilterPathMapping(String, WebAppContext) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add the path spec to the filter path mapping.
- addGeneralBloomFilter(BloomFilterWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Store general Bloom filter in the file.
- addGeneralBloomFilter(BloomFilterWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- addGetResult(Result) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addGetResult(Result) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a get result.
- addGlobalFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.http.FilterContainer
-
Add a global filter to the container - This global filter will be
applied to all available web contexts.
- addGlobalFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- addHBaseDependencyJars(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add HBase and its dependencies (only) to the job configuration.
- addHbaseResources(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
- addHFileRefs(String, List<Pair<Path, Path>>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Add new hfile references to the queue.
- addHostsAndBlockWeight(String[], long) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
add some weight to a list of hosts, update the value of unique block weight
- addImmutable(byte[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- addImmutable(byte[], byte[], long, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- addImmutable(byte[], ByteBuffer, long, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- addInfo(String, SecurityInfo) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityInfo
-
Adds a security configuration for a new service name.
- addInlineBlockWriter(InlineBlockWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Adds an inline block writer such as a multi-level block index writer or
a compound Bloom filter writer.
- addInlineBlockWriter(InlineBlockWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- addInternalServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add an internal servlet in the server.
- addInternalServlet(String, String, Class<? extends HttpServlet>, boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add an internal servlet in the server, specifying whether or not to
protect with Kerberos authentication.
- addJerseyResourcePackage(String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add a Jersey resource package.
- addLastBloomKey(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.util.BloomContext
-
Adds the last bloom key to the HFile Writer as part of StorefileWriter close.
- addLastBloomKey(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.util.RowBloomContext
-
- addLastBloomKey(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.util.RowColBloomContext
-
- addLease(Leases.Lease) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Inserts lease.
- addListener(ForeignExceptionListener) - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
Listen for failures to a given process.
- addLocation(Put, ServerName, long, int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- addMaster() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMaster(Configuration, int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMaster(Configuration, int, User) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMemStoreSize(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- addMetaWALSplit(long, long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
Record a single instance of a split
- addMobRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addMobRegion(RegionInfo, SnapshotManifest.RegionVisitor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addMutation(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addMutation(Mutation) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a mutation result.
- addMvccToOperationContext(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Store the write point in OperationContext when the operation succeed.
- addNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- addNamespaceQuota(Connection, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addOperationsFromCP(int, Mutation[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Add more Mutations corresponding to the Mutation at the given index to be committed atomically
in the same batch.
- addOption(Option) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addOptions() - 类 中的方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- addOptions() - 类 中的方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- addOptions() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- addOptions() - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addOptions() - 类 中的方法org.apache.hadoop.hbase.util.RegionMover
-
- addOptNoArg(String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addOptNoArg(String, String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addOptWithArg(String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addOptWithArg(String, String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addPeer(String, ReplicationPeerConfig, Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- addPeer(String, ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- addPeer(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
Method called after a peer has been connected.
- addPeer(String, ReplicationPeerConfig, boolean) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerStorage
-
Add a replication peer.
- addPeer(String, ReplicationPeerConfig, boolean) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- addPeerToHFileRefs(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Add a peer to hfile reference queue if peer does not exist.
- addPutToKv(Put, Cell) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- addRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- addRegion(HRegion) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MutableOnlineRegions
-
Add to online regions.
- addRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Creates a 'manifest' for the specified region, by reading directly from the HRegion object.
- addRegion(HRegion, SnapshotManifest.RegionVisitor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addRegion(Path, RegionInfo) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Creates a 'manifest' for the specified region, by reading directly from the disk.
- addRegion(Path, RegionInfo, SnapshotManifest.RegionVisitor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addRegionInfo(Put, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- addRegionInfo(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- addRegionReplayEditsSize(byte[], MemStoreSize) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Add memStoreSize to replayEditsPerRegion.
- addRegionServer() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionServer(Configuration, int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionServer(Configuration, int, User) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionSize(RegionInfo, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- addRegionsToMeta(Connection, List<RegionInfo>, int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Adds a hbase:meta row for each of the specified new regions.
- addRegionToMeta(Connection, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Adds a (single) hbase:meta row for the specified new region and its daughters.
- addRegionToSnapshot(SnapshotProtos.SnapshotDescription, ForeignExceptionSnare) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Complete taking the snapshot on the region.
- addReplicas(TableDescriptor, List<RegionInfo>, int, int) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
Create any replicas for the regions (the default replicas that was already created is passed to
the method)
- addReplicationBarrier(Put, long) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- addReplicationPeer(String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a new replication peer for replicating data to slave cluster.
- addReplicationPeer(String, ReplicationPeerConfig, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a new replication peer for replicating data to slave cluster.
- addReplicationPeer(String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Add a new replication peer for replicating data to slave cluster
- addReplicationPeer(String, ReplicationPeerConfig, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Add a new replication peer for replicating data to slave cluster
- addReplicationPeer(String, ReplicationPeerConfig, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- addReplicationPeer(RpcController, ReplicationProtos.AddReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- addReplicationPeer(String, ReplicationPeerConfig, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- addReplicationPeer(RpcController, ReplicationProtos.AddReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- addReplicationPeer(String, ReplicationPeerConfig, boolean) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Add a new replication peer for replicating data to slave cluster
- addReplicationPeerAsync(String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a new replication peer but does not block and wait for it.
- addReplicationPeerAsync(String, ReplicationPeerConfig, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Add a new replication peer but does not block and wait for it.
- addReplicationPeerAsync(String, ReplicationPeerConfig, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- addRequiredOption(Option) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addRequiredOptWithArg(String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- addRequiredOptWithArg(String, String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- address - 类 中的变量org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- Address - org.apache.hadoop.hbase.net中的类
-
An immutable type to hold a hostname and port combo, like an Endpoint
or java.net.InetSocketAddress (but without danger of our calling
resolve -- we do NOT want a resolve happening every time we want
to hold a hostname and port combo).
- Addressing - org.apache.hadoop.hbase.util中的类
-
Utility for network addresses, resolving and naming.
- Addressing() - 类 的构造器org.apache.hadoop.hbase.util.Addressing
-
- Addressing.AddressSelectionCondition - org.apache.hadoop.hbase.util中的接口
-
Interface for AddressSelectionCondition to check if address is acceptable
- addRSGroup(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Creates a new RegionServer group with the given name.
- addRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- addRSGroup(RSGroupInfo) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Add given RSGroupInfo to existing list of group infos.
- addScanResult(List<Result>) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addScanResult(List<Result>) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a scan result.
- addServer(Address) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Adds the given server to the group.
- addServer(RegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- addServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- addServerToDrainList(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Add the server to the drain list.
- addServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add a servlet in the server.
- addServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- addShutdownHook(Thread, int) - 类 中的方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- addSnapshot(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot
- addSnapshotClone(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot cloned table
- addSnapshotRestore(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot
- addSplit(long, long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
Record a single instance of a split
- addSplitsToParent(Connection, RegionInfo, RegionInfo, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Adds daughter region infos to hbase:meta row for the specified region.
- addStatistic(byte[], ClientProtos.RegionLoadStats) - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- addStoreFile(HStoreFile) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartition
-
- addStringMap(Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
Add String map to config list.
- addSublist(List<T>) - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists
-
- addTable(TableName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- addTableDescriptor(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Add the table descriptor to the snapshot manifest
- addTableQuota(Connection, TableName, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addToFailedServers(InetSocketAddress, Throwable) - 类 中的方法org.apache.hadoop.hbase.ipc.FailedServers
-
Add an address to the list of the failed servers list.
- addToHDFSBlocksDistribution(HDFSBlocksDistribution, BlockLocation[]) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Update blocksDistribution with blockLocations
- addToken(Token<? extends TokenIdentifier>) - 类 中的方法org.apache.hadoop.hbase.security.User
-
Adds the given Token to the user's credentials.
- addToMovedRegions(String, ServerName, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- addToScanners(List<? extends Segment>, long, List<KeyValueScanner>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- addToScanners(Segment, long, List<KeyValueScanner>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- addTypeFilter(QuotaType) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
Add a type to the filter list
- addUserQuota(Connection, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addUserQuota(Connection, String, TableName, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addUserQuota(Connection, String, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addVersionDelete(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- addWAL(WAL) - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- addWAL(ServerName, String, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Add a new WAL file to the given queue for a given regionserver.
- addWALActionsListener(WALActionsListener) - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- addWALActionsListener(WALActionsListener) - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- addWALActionsListener(WALActionsListener) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- addWeight(long) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
add weight
- Admin - org.apache.hadoop.hbase.client中的接口
-
The administrative API for HBase.
- ADMIN_QOS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- AdminAuthorizedServlet - org.apache.hadoop.hbase.http中的类
-
General servlet which is admin-authorized.
- AdminAuthorizedServlet() - 类 的构造器org.apache.hadoop.hbase.http.AdminAuthorizedServlet
-
- ADMINS_ACL - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- advance() - 接口 中的方法org.apache.hadoop.hbase.CellScanner
-
Advance the scanner 1 cell.
- advance() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- AdvancedScanResultConsumer - org.apache.hadoop.hbase.client中的接口
-
This is the low level API for asynchronous scan.
- AdvancedScanResultConsumer.ScanController - org.apache.hadoop.hbase.client中的接口
-
Used to suspend or stop a scan, or get a scan cursor if available.
- AdvancedScanResultConsumer.ScanResumer - org.apache.hadoop.hbase.client中的接口
-
Used to resume a scan.
- advanceTo(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Step the MVCC forward on to a new read/write basis.
- AES - org.apache.hadoop.hbase.io.crypto.aes中的类
-
AES-128, provided by the JCE
Algorithm instances are pooled for reuse, so the cipher provider and mode
are configurable but fixed at instantiation.
- AES(CipherProvider) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.AES
-
- AESDecryptor - org.apache.hadoop.hbase.io.crypto.aes中的类
-
- AESDecryptor(Cipher) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- AESEncryptor - org.apache.hadoop.hbase.io.crypto.aes中的类
-
- AESEncryptor(Cipher, SecureRandom) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- affixShutdownHook(Thread, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- afterCreatingZigZagLatch() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
Used to manufacture race condition reliably.
- afterExecution() - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushLifeCycleTracker
-
Called after flush is executed.
- AgeSnapshot - org.apache.hadoop.hbase.io.hfile中的类
-
Snapshot of block cache age in cache.
- AggregateImplementation<T,S,P extends com.google.protobuf.Message,Q extends com.google.protobuf.Message,R extends com.google.protobuf.Message> - org.apache.hadoop.hbase.coprocessor中的类
-
A concrete AggregateProtocol implementation.
- AggregateImplementation() - 类 的构造器org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- align(int) - 类 中的静态方法org.apache.hadoop.hbase.util.ClassSize
-
Aligns a number to 8.
- align(long) - 类 中的静态方法org.apache.hadoop.hbase.util.ClassSize
-
Aligns a number to 8.
- ALL_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Define for 'return-all-versions'.
- allBufs - 类 中的变量org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- alloc(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.Chunk
-
Try to allocate size bytes from the chunk.
- allocate(long) - 接口 中的方法org.apache.hadoop.hbase.util.ByteBufferAllocator
-
Allocates a bytebuffer
- allocBloom() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- allocCount - 类 中的变量org.apache.hadoop.hbase.regionserver.Chunk
-
Total number of allocations satisfied from this buffer
- allowCompaction - 类 中的变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- allowFallbackToSimpleAuth - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- allTableRegions(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- allTime() - 类 中的静态方法org.apache.hadoop.hbase.io.TimeRange
-
- AlwaysPasses - org.apache.hadoop.hbase.errorprone中的类
-
- AlwaysPasses() - 类 的构造器org.apache.hadoop.hbase.errorprone.AlwaysPasses
-
- AND - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
AND Byte Array
- AND_ARRAY - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
AND Array
- AND_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
- annotatedQos - 类 中的变量org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
- AnnotationReadingPriorityFunction - org.apache.hadoop.hbase.regionserver中的类
-
Reads special method annotations and table names to figure a priority for use by QoS facility in
ipc; e.g: rpcs to hbase:meta get priority.
- AnnotationReadingPriorityFunction(RSRpcServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
- AnnotationReadingPriorityFunction(RSRpcServices, Class<? extends RSRpcServices>) - 类 的构造器org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Constructs the priority function given the RPC server implementation and the annotations on the
methods in the provided clz.
- APP_DIR - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- appDir - 类 中的变量org.apache.hadoop.hbase.http.HttpServer
-
- append(CacheEvictionStats) - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStatsAggregator
-
- append(CacheEvictionStats) - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStatsBuilder
-
- Append - org.apache.hadoop.hbase.client中的类
-
Performs Append operations on a single row.
- Append(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Append
-
Create a Append operation for the specified row.
- Append(Append) - 类 的构造器org.apache.hadoop.hbase.client.Append
-
Copy constructor
- Append(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.client.Append
-
Create a Append operation for the specified row.
- Append(byte[], long, NavigableMap<byte[], List<Cell>>) - 类 的构造器org.apache.hadoop.hbase.client.Append
-
Construct the Append with user defined data.
- append(Append) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Appends values to one or more columns within a single row.
- append(Append) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- append(Append) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Appends values to one or more columns within a single row.
- append(LoggingEvent) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- append(byte[], byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
Append the given key/value pair to the file info, optionally checking the
key prefix.
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Add key/value to file.
- append(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CellSink
-
Append the given cell
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredMultiFileWriter
-
- append(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- append(Append, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- append(Append) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform one or more append operations on a row.
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- append(W, FSWALEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- append(RegionInfo, WALKeyImpl, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
NOTE: This append, at a time that is usually after this call returns, starts an mvcc
transaction by calling 'begin' wherein which we assign this update a sequenceid.
- append(RegionInfo, WALKeyImpl, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- append(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- append(RegionInfo, WALKeyImpl, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- append(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- append(Append) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- append(TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- append(RegionInfo, WALKeyImpl, WALEdit, boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Append a set of edits to the WAL.
- append(WAL.Entry) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.AsyncWriter
-
- append(WAL.Entry) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.Writer
-
- append(WALSplitter.RegionEntryBuffer) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- APPEND_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- APPEND_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- APPEND_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- APPEND_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- APPEND_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- APPEND_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- APPEND_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- APPEND_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- appendEntry(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.EntryBuffers
-
Append a log entry into the corresponding region buffer.
- appendFileInfo(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Add an element to the file info map.
- appendFileInfo(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Add to the file info.
- appendFileInfo(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- appendKeyTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- appendKeyTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- appendKeyValue(StringBuilder, String, Object) - 类 中的静态方法org.apache.hadoop.hbase.util.Strings
-
Append to a StringBuilder a key/value.
- appendKeyValue(StringBuilder, String, Object, String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.Strings
-
Append to a StringBuilder a key/value.
- appendList(TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- appendMetaBlock(String, Writable) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
- appendMetaBlock(String, Writable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Add a meta block to the end of the file.
- appendMetadata(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
Writes meta data.
- appendMetadata(long, boolean, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
Writes meta data.
- appendMetaData(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKMetadata
-
- appendPeerTableCFs(String, String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- appendPeerTableCFs(String, Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- appendReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Append the replicable table column family config from the specified peer.
- appendReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Append the replicable table-cf config of the specified peer
- appendReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- appendTableCFsToReplicationPeerConfig(Map<TableName, List<String>>, ReplicationPeerConfig) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- appendTo(Cell, ByteBuffer, int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Copy the Cell content into the passed buf in KeyValue serialization format.
- appendToByteArray(Cell, byte[], int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
copy key and value
- appendToByteBuffer(ByteBuffer, KeyValue, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- appendTrackedTimestampsToMetadata() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
Add TimestampRange and earliest put timestamp to Metadata
- appendTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- apply(byte) - 枚举 中的方法org.apache.hadoop.hbase.util.Order
-
Apply order to the byte val.
- apply(byte[]) - 枚举 中的方法org.apache.hadoop.hbase.util.Order
-
Apply order to the byte array val.
- apply(byte[], int, int) - 枚举 中的方法org.apache.hadoop.hbase.util.Order
-
Apply order to a range within the byte array val.
- areAdjacent(RegionInfo, RegionInfo) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Check whether two regions are adjacent
- areAdjacent(HRegionInfo, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- areCompactionsDisabled() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- areCompactionsDisabled() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesCompactionsViolationPolicyEnforcement
-
- areCompactionsDisabled(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
Returns whether or not compactions should be disabled for the given tableName per
a space quota violation policy.
- areCompactionsDisabled() - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
Returns whether or not compactions on this table should be disabled for this policy.
- areDeadServersInProgress() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Checks if there are currently any dead servers being processed by the
master.
- areDeadServersInProgress() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Checks if any dead servers are currently in progress.
- arePartsEqual(ByteBuffer, int, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Check whether two parts in the same buffer are equal.
- areScanStartRowAndStopRowEqual(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.ClientUtil
-
- areWritesEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- areWritesEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- areWritesEnabled() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- array() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- array() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- array() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- ARRAY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Array overhead
- ArrayBackedTag - org.apache.hadoop.hbase中的类
-
This is a
Tag implementation in which value is backed by an on heap byte array.
- ArrayBackedTag(byte, String) - 类 的构造器org.apache.hadoop.hbase.ArrayBackedTag
-
The special tag will write the length of each tag and that will be
followed by the type and then the actual tag.
- ArrayBackedTag(byte, byte[]) - 类 的构造器org.apache.hadoop.hbase.ArrayBackedTag
-
Format for a tag :
<length of tag - 2 bytes><type code - 1 byte><tag> tag length is serialized
using 2 bytes only but as this will be unsigned, we can have max tag length of
(Short.MAX_SIZE * 2) +1.
- ArrayBackedTag(byte[], int) - 类 的构造器org.apache.hadoop.hbase.ArrayBackedTag
-
Creates a Tag from the specified byte array and offset.
- ArrayBackedTag(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.ArrayBackedTag
-
Creates a Tag from the specified byte array, starting at offset, and for length
length.
- ARRAYLIST - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ArrayList(0)
- arrayOffset() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- arrayOffset() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- arrayOffset() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedBlob
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedBlobVar
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedFloat32
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedFloat64
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt16
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt32
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt64
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt8
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedNumeric
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedString
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.RawBytes
-
- ASCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.RawString
-
- asInterrupt(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.util.ExceptionUtil
-
- asList(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
Creates list of tags from given byte array, expected that it is in the expected tag format.
- assertBulkLoadHFileOk(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This throws a WrongRegionException if the HFile does not fit in this region, or an
InvalidHFileException if the HFile is not valid.
- assertSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- assertSnapshotRequestIsValid(SnapshotProtos.SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.ClientSnapshotDescriptionUtils
-
Check to make sure that the description of the snapshot requested is valid
- assign(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Assign a Region.
- assign(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- assign(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- ASSIGN_METRIC_PREFIX - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- ASSIGN_RANDOM_PORTS - 类 中的静态变量org.apache.hadoop.hbase.LocalHBaseCluster
-
- AssignmentListener - org.apache.hadoop.hbase.master中的接口
-
Get notification of assignment events.
- AssignmentVerificationReport - org.apache.hadoop.hbase.master中的类
-
- AssignmentVerificationReport() - 类 的构造器org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- assignRegion(RpcController, MasterProtos.AssignRegionRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- assignRegion(RpcController, MasterProtos.AssignRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- asSubByteBuff(long, int) - 类 中的方法org.apache.hadoop.hbase.util.ByteBufferArray
-
Creates a ByteBuff from a given array of ByteBuffers from the given offset to the
length specified.
- asSubByteBuffer(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns bytes from current position till length specified, as a single ByteBuffer.
- asSubByteBuffer(int, int, ObjectIntPair<ByteBuffer>) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns bytes from given offset till length specified, as a single ByteBuffer.
- asSubByteBuffer(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns bytes from current position till length specified, as a single ByteBuffer.
- asSubByteBuffer(int, int, ObjectIntPair<ByteBuffer>) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns bytes from given offset till length specified, as a single ByteBuffer.
- asSubByteBuffer(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- asSubByteBuffer(int, int, ObjectIntPair<ByteBuffer>) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- ASYNC_DFS_OUTPUT_CREATE_MAX_RETRIES - 类 中的静态变量org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- ASYNC_WAL_USE_SHARED_EVENT_LOOP - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- ASYNC_WAL_WAIT_ON_SHUTDOWN_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- AsyncAdmin - org.apache.hadoop.hbase.client中的接口
-
The asynchronous administrative API for HBase.
- AsyncAdminBuilder - org.apache.hadoop.hbase.client中的接口
-
- AsyncAdminRequestRetryingCaller<T> - org.apache.hadoop.hbase.client中的类
-
- AsyncAdminRequestRetryingCaller(HashedWheelTimer, AsyncConnectionImpl, long, int, long, long, int, ServerName, AsyncAdminRequestRetryingCaller.Callable<T>) - 类 的构造器org.apache.hadoop.hbase.client.AsyncAdminRequestRetryingCaller
-
- AsyncAdminRequestRetryingCaller.Callable<T> - org.apache.hadoop.hbase.client中的接口
-
- AsyncBufferedMutator - org.apache.hadoop.hbase.client中的接口
-
Used to communicate with a single HBase table in batches.
- AsyncBufferedMutatorBuilder - org.apache.hadoop.hbase.client中的接口
-
- AsyncClientExample - org.apache.hadoop.hbase.client.example中的类
-
A simple example shows how to use asynchronous client.
- AsyncClientExample() - 类 的构造器org.apache.hadoop.hbase.client.example.AsyncClientExample
-
- AsyncConnection - org.apache.hadoop.hbase.client中的接口
-
The asynchronous version of Connection.
- AsyncConsoleAppender - org.apache.hadoop.hbase中的类
-
Logger class that buffers before trying to log to the specified console.
- AsyncConsoleAppender() - 类 的构造器org.apache.hadoop.hbase.AsyncConsoleAppender
-
- asyncCreate(ZKWatcher, String, byte[], AsyncCallback.StringCallback, Object) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Async creates the specified node with the specified data.
- AsyncFSOutput - org.apache.hadoop.hbase.io.asyncfs中的接口
-
Interface for asynchronous filesystem output stream.
- AsyncFSOutputHelper - org.apache.hadoop.hbase.io.asyncfs中的类
-
Helper class for creating AsyncFSOutput.
- AsyncFSWAL - org.apache.hadoop.hbase.regionserver.wal中的类
-
An asynchronous implementation of FSWAL.
- AsyncFSWAL(FileSystem, Path, String, String, Configuration, List<WALActionsListener>, boolean, String, String, EventLoopGroup, Class<? extends Channel>) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- AsyncFSWALProvider - org.apache.hadoop.hbase.wal中的类
-
- AsyncFSWALProvider() - 类 的构造器org.apache.hadoop.hbase.wal.AsyncFSWALProvider
-
- AsyncFSWALProvider.AsyncWriter - org.apache.hadoop.hbase.wal中的接口
-
- AsyncMasterRequestRpcRetryingCaller<T> - org.apache.hadoop.hbase.client中的类
-
Retry caller for a request call to master.
- AsyncMasterRequestRpcRetryingCaller(HashedWheelTimer, AsyncConnectionImpl, AsyncMasterRequestRpcRetryingCaller.Callable<T>, long, int, long, long, int) - 类 的构造器org.apache.hadoop.hbase.client.AsyncMasterRequestRpcRetryingCaller
-
- AsyncMasterRequestRpcRetryingCaller.Callable<T> - org.apache.hadoop.hbase.client中的接口
-
- AsyncMetaTableAccessor - org.apache.hadoop.hbase中的类
-
The asynchronous meta table accessor.
- AsyncMetaTableAccessor() - 类 的构造器org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
- AsyncProcessTask<T> - org.apache.hadoop.hbase.client中的类
-
Contains the attributes of a task which will be executed
by AsyncProcess.
- AsyncProcessTask.Builder<T> - org.apache.hadoop.hbase.client中的类
-
- AsyncProcessTask.SubmittedRows - org.apache.hadoop.hbase.client中的枚举
-
The number of processed rows.
- AsyncProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
AsyncWriter for protobuf-based WAL.
- AsyncProtobufLogWriter(EventLoopGroup, Class<? extends Channel>) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- AsyncRequestFuture - org.apache.hadoop.hbase.client中的接口
-
The context used to wait for results from one submit call.
- AsyncRpcRetryingCaller<T> - org.apache.hadoop.hbase.client中的类
-
- AsyncRpcRetryingCaller(HashedWheelTimer, AsyncConnectionImpl, long, int, long, long, int) - 类 的构造器org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- AsyncServerRequestRpcRetryingCaller<T> - org.apache.hadoop.hbase.client中的类
-
Retry caller for a request call to region server.
- AsyncServerRequestRpcRetryingCaller(HashedWheelTimer, AsyncConnectionImpl, long, int, long, long, int, ServerName, AsyncServerRequestRpcRetryingCaller.Callable<T>) - 类 的构造器org.apache.hadoop.hbase.client.AsyncServerRequestRpcRetryingCaller
-
- AsyncServerRequestRpcRetryingCaller.Callable<T> - org.apache.hadoop.hbase.client中的接口
-
- AsyncTable<C extends ScanResultConsumerBase> - org.apache.hadoop.hbase.client中的接口
-
The interface for asynchronous version of Table.
- AsyncTable.CheckAndMutateBuilder - org.apache.hadoop.hbase.client中的接口
-
A helper class for sending checkAndMutate request.
- AsyncTable.CoprocessorCallback<R> - org.apache.hadoop.hbase.client中的接口
-
The callback when we want to execute a coprocessor call on a range of regions.
- AsyncTable.CoprocessorServiceBuilder<S,R> - org.apache.hadoop.hbase.client中的接口
-
Helper class for sending coprocessorService request that executes a coprocessor call on regions
which are covered by a range.
- AsyncTableBuilder<C extends ScanResultConsumerBase> - org.apache.hadoop.hbase.client中的接口
-
- AsyncTableRegionLocator - org.apache.hadoop.hbase.client中的接口
-
The asynchronous version of RegionLocator.
- at(long) - 类 中的静态方法org.apache.hadoop.hbase.io.TimeRange
-
- ATOMIC_BOOLEAN - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for AtomicBoolean
- ATOMIC_INTEGER - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for AtomicInteger
- ATOMIC_LONG - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for AtomicLong
- ATOMIC_REFERENCE - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for AtomicReference
- AtomicUtils - org.apache.hadoop.hbase.util中的类
-
Utilities related to atomic operations.
- AtomicUtils() - 类 的构造器org.apache.hadoop.hbase.util.AtomicUtils
-
- attemptToOwnTask(boolean, ZKWatcher, ServerName, String, int) - 类 中的静态方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
Try to own the task by transitioning the zk node data from UNASSIGNED to OWNED.
- ATTRIBUTE_SEPERATOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- Attributes - org.apache.hadoop.hbase.client中的接口
-
- ATTRIBUTES_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- AUDITLOG - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AUTH_FAILED_FOR - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AUTH_SUCCESSFUL_FOR - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AUTHENTICATION_FAILURES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHENTICATION_FAILURES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHENTICATION_FALLBACKS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHENTICATION_FALLBACKS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHENTICATION_SUCCESSES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHENTICATION_SUCCESSES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authenticationFailure() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authenticationFailure() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- authenticationFallback() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authenticationFallback() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- authenticationMethod - 枚举 中的变量org.apache.hadoop.hbase.security.AuthMethod
-
- authenticationSuccess() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authenticationSuccess() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- authManager - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AuthMethod - org.apache.hadoop.hbase.security中的枚举
-
Authentication method
- AUTHORIZATION_FAILURES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHORIZATION_FAILURES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHORIZATION_SUCCESSES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- AUTHORIZATION_SUCCESSES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authorizationFailure() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authorizationFailure() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- authorizationSuccess() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- authorizationSuccess() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- authorize(UserGroupInformation, RPCProtos.ConnectionHeader, InetAddress) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Authorize the incoming client connection.
- authTokenSecretMgr - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AuthUtil - org.apache.hadoop.hbase中的类
-
Utility methods for helping with security tasks.
- available(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Is HBase available?
- available() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferInputStream
-
- available() - 类 中的方法org.apache.hadoop.hbase.io.ByteBuffInputStream
-
- AVERAGE_LOAD_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- AVERAGE_LOAD_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- AVERAGE_REGION_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- AVERAGE_REGION_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- AverageIntervalRateLimiter - org.apache.hadoop.hbase.quotas中的类
-
This limiter will refill resources at every TimeUnit/resources interval.
- AverageIntervalRateLimiter() - 类 的构造器org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- AVG_STORE_FILE_AGE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- AVG_STORE_FILE_AGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- avlHeight - 类 中的变量org.apache.hadoop.hbase.util.AvlUtil.AvlNode
-
- AvlIterableList() - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- avlLeft - 类 中的变量org.apache.hadoop.hbase.util.AvlUtil.AvlNode
-
- AvlLinkedNode() - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlLinkedNode
-
- AvlNode() - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlNode
-
- avlRight - 类 中的变量org.apache.hadoop.hbase.util.AvlUtil.AvlNode
-
- AvlTree() - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
- AvlTreeIterator() - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
- AvlTreeIterator(TNode) - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
Create the iterator starting from the first (min) node of the tree
- AvlTreeIterator(TNode, Object, AvlUtil.AvlKeyComparator<TNode>) - 类 的构造器org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
Create the iterator starting from the specified key
- AvlUtil - org.apache.hadoop.hbase.util中的类
-
Helper class that allows to create and manipulate an AvlTree.
- AvlUtil.AvlInsertOrReplace<TNode extends AvlUtil.AvlNode> - org.apache.hadoop.hbase.util中的接口
-
- AvlUtil.AvlIterableList - org.apache.hadoop.hbase.util中的类
-
Helper class that allows to create and manipulate a linked list of AvlLinkedNodes
- AvlUtil.AvlKeyComparator<TNode extends AvlUtil.AvlNode> - org.apache.hadoop.hbase.util中的接口
-
The AvlTree allows to lookup an object using a custom key.
- AvlUtil.AvlLinkedNode<TNode extends AvlUtil.AvlLinkedNode> - org.apache.hadoop.hbase.util中的类
-
This class extends the AvlNode and adds two links that will be used in conjunction
with the AvlIterableList class.
- AvlUtil.AvlNode<TNode extends AvlUtil.AvlNode> - org.apache.hadoop.hbase.util中的类
-
This class represent a node that will be used in an AvlTree.
- AvlUtil.AvlNodeVisitor<TNode extends AvlUtil.AvlNode> - org.apache.hadoop.hbase.util中的接口
-
Visitor that allows to traverse a set of AvlNodes.
- AvlUtil.AvlTree - org.apache.hadoop.hbase.util中的类
-
Helper class that allows to create and manipulate an AVL Tree
- AvlUtil.AvlTreeIterator<TNode extends AvlUtil.AvlNode> - org.apache.hadoop.hbase.util中的类
-
Iterator for the AvlTree
- await(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock
-
- await() - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock
-
- await() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Wait until the read point catches up to the write point; i.e. wait on all outstanding mvccs
to complete.
- awaitRunning() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
- awaitRunning(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
- awaitTerminated() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
- awaitTerminated(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
- BACK_REFERENCES_DIRECTORY_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.io.FileLink
-
Define the Back-reference directory name prefix: .links-<hfile>/
- BACKOFF_POLICY_CLASS - 接口 中的静态变量org.apache.hadoop.hbase.client.backoff.ClientBackoffPolicy
-
- BackoffPolicy() - 类 的构造器org.apache.hadoop.hbase.util.RetryCounter.BackoffPolicy
-
- BACKSLASH - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for Backslash
- backupMasterAddressesZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- backwardSeek(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at or before the row of specified Cell, it firstly
tries to seek the scanner at or after the specified Cell, return if
peek KeyValue of scanner has the same row with specified Cell,
otherwise seek the scanner at the first Cell of the row which is the
previous row of specified KeyValue
- backwardSeek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonReversedNonLazyKeyValueScanner
-
- backwardSeek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- backwardSeek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- backwardSeek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Seek the scanner at or before the row of specified Cell, it firstly
tries to seek the scanner at or after the specified Cell, return if
peek KeyValue of scanner has the same row with specified Cell,
otherwise seek the scanner at the first Cell of the row which is the
previous row of specified KeyValue
- backwardSeek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- BadAuthException - org.apache.hadoop.hbase.ipc中的异常错误
-
- BadAuthException() - 异常错误 的构造器org.apache.hadoop.hbase.ipc.BadAuthException
-
- BadAuthException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.BadAuthException
-
- BadAuthException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.BadAuthException
-
- BadFormatException(String) - 异常错误 的构造器org.apache.hadoop.hbase.http.conf.ConfServlet.BadFormatException
-
- BadTsvLineException(String) - 异常错误 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser.BadTsvLineException
-
- balance() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Invoke the balancer.
- balance(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Invoke the balancer.
- balance() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Invoke the balancer.
- balance(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Invoke the balancer.
- balance() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- balance(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- balance(RpcController, MasterProtos.BalanceRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- balance() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- balance(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- balance(RpcController, MasterProtos.BalanceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- balanceCluster(Map<ServerName, List<RegionInfo>>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- balanceCluster(TableName, Map<ServerName, List<RegionInfo>>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- balanceCluster(TableName, Map<ServerName, List<RegionInfo>>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Perform the major balance operation
- balanceCluster(Map<ServerName, List<RegionInfo>>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Perform the major balance operation
- balanceCluster(TableName, Map<ServerName, List<RegionInfo>>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- balanceCluster(Map<ServerName, List<RegionInfo>>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- BalancedQueueRpcExecutor - org.apache.hadoop.hbase.ipc中的类
-
An
RpcExecutor that will balance requests evenly across all its queues, but still remains
efficient with a single queue via an inlinable queue balancing mechanism.
- BalancedQueueRpcExecutor(String, int, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.BalancedQueueRpcExecutor
-
- BalancedQueueRpcExecutor(String, int, String, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.BalancedQueueRpcExecutor
-
- balancer() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- balancer(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- balanceRSGroup(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Balance regions in the given RegionServer group.
- balanceRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- balancerSwitch(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Turn the load balancer on or off.
- balancerSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Turn the load balancer on or off.
- balancerSwitch(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- balancerZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- balanceSwitch(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- base - 类 中的变量org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- Base64 - org.apache.hadoop.hbase.util中的类
-
Encodes and decodes to and from Base64 notation.
- Base64.Base64InputStream - org.apache.hadoop.hbase.util中的类
-
A
Base64.Base64InputStream will read data from another
InputStream, given in the constructor, and
encode/decode to/from Base64 notation on the fly.
- Base64.Base64OutputStream - org.apache.hadoop.hbase.util中的类
-
A
Base64.Base64OutputStream will write data to another
OutputStream, given in the constructor, and
encode/decode to/from Base64 notation on the fly.
- Base64InputStream(InputStream) - 类 的构造器org.apache.hadoop.hbase.util.Base64.Base64InputStream
-
- Base64InputStream(InputStream, int) - 类 的构造器org.apache.hadoop.hbase.util.Base64.Base64InputStream
-
- Base64OutputStream(OutputStream) - 类 的构造器org.apache.hadoop.hbase.util.Base64.Base64OutputStream
-
- Base64OutputStream(OutputStream, int) - 类 的构造器org.apache.hadoop.hbase.util.Base64.Base64OutputStream
-
- BASE_NAMESPACE_DIR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- BaseConfigurable - org.apache.hadoop.hbase中的类
-
- BaseConfigurable() - 类 的构造器org.apache.hadoop.hbase.BaseConfigurable
-
- BaseEnvironment<C extends Coprocessor> - org.apache.hadoop.hbase.coprocessor中的类
-
Encapsulation of the environment of each coprocessor
- BaseEnvironment(C, int, int, Configuration) - 类 的构造器org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
Constructor
- BaseReplicationEndpoint - org.apache.hadoop.hbase.replication中的类
-
- BaseReplicationEndpoint() - 类 的构造器org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- BaseRowProcessor<S extends com.google.protobuf.Message,T extends com.google.protobuf.Message> - org.apache.hadoop.hbase.regionserver中的类
-
Base class for RowProcessor with some default implementations.
- BaseRowProcessor() - 类 的构造器org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- BaseRowProcessorEndpoint<S extends com.google.protobuf.Message,T extends com.google.protobuf.Message> - org.apache.hadoop.hbase.coprocessor中的类
-
- BaseRowProcessorEndpoint() - 类 的构造器org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
- baseZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- BasicMemStoreCompactionStrategy - org.apache.hadoop.hbase.regionserver中的类
-
Basic strategy chooses between two actions: flattening a segment or merging indices of all
segments in the pipeline.
- BasicMemStoreCompactionStrategy(Configuration, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.BasicMemStoreCompactionStrategy
-
- batch(List<? extends Row>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Method that does a batch call on Deletes, Gets, Puts, Increments, Appends and RowMutations.
- batch(List<? extends Row>, Object[]) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- batch(List<? extends Row>, Object[], int) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- batch(List<? extends Row>, Object[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Method that does a batch call on Deletes, Gets, Puts, Increments, Appends, RowMutations.
- batch - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- batch(List<? extends Row>, Object[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- batchAll(List<? extends Row>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
A simple version of batch.
- batchCallback(List<? extends Row>, Object[], Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- batchCallback(List<? extends Row>, Object[], Batch.Callback<R>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- batchCallback(List<? extends Row>, Object[], Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R, Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Creates an instance of the given Service subclass for each table
region spanning the range from the startKey row to endKey row (inclusive), all
the invocations to the same region server will be batched into one call.
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R, Batch.Callback<R>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Creates an instance of the given Service subclass for each table
region spanning the range from the startKey row to endKey row (inclusive), all
the invocations to the same region server will be batched into one call.
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- batchCoprocessorService(Descriptors.MethodDescriptor, Message, byte[], byte[], R, Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- batchMutate(Mutation[], long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- batchMutate(Mutation[], boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- batchMutate(Mutation[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- batchMutate(Mutation[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform a batch of mutations.
- batchReplay(WALSplitter.MutationReplay[], long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- BatchScanResultCache - org.apache.hadoop.hbase.client中的类
-
A scan result cache for batched scan, i.e,
{@code scan.getBatch() > 0 && !
- BatchScanResultCache(int) - 类 的构造器org.apache.hadoop.hbase.client.BatchScanResultCache
-
- BBKVComparator - org.apache.hadoop.hbase中的类
-
A comparator for case where
ByteBufferKeyValue is prevalent type (BBKV
is base-type in hbase2).
- BBKVComparator(Comparator) - 类 的构造器org.apache.hadoop.hbase.BBKVComparator
-
- beforeExecution() - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushLifeCycleTracker
-
Called before flush is executed.
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- beforeShipped() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ShipperListener
-
- beforeShipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- beforeWaitOnSafePoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- begin() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- begin(Runnable) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Start a write transaction.
- beginPersistentOutput() - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
enables output as a single, persistent list. at present, only relevant in
the case of JSON output.
- BigDecimalComparator - org.apache.hadoop.hbase.filter中的类
-
A BigDecimal comparator which numerical compares against the specified byte array
- BigDecimalComparator(BigDecimal) - 类 的构造器org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- BinaryComparator - org.apache.hadoop.hbase.filter中的类
-
- BinaryComparator(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.BinaryComparator
-
Constructor
- BinaryPrefixComparator - org.apache.hadoop.hbase.filter中的类
-
A comparator which compares against a specified byte array, but only compares
up to the length of this byte array.
- BinaryPrefixComparator(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.BinaryPrefixComparator
-
Constructor
- binaryPrefixType - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
BinaryPrefixType byte array
- binarySearch(Cell[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- binarySearch(Cell[], byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Searches for the latest value for the specified column.
- binarySearch(byte[][], byte[], int, int, RawComparator<?>) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- binarySearch(byte[][], byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Binary search for keys in indexes using Bytes.BYTES_RAWCOMPARATOR.
- binarySearch(byte[][], Cell, RawComparator<Cell>) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- binarySearch(Cell[], Cell, CellComparator) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Binary search for keys in indexes.
- binaryType - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
BinaryType byte array
- bind(ServerSocket, InetSocketAddress, int) - 类 中的静态方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
A convenience method to bind to a given address and report
better exceptions if the address is not a valid host.
- BIND_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- bindAddress - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- BitComparator - org.apache.hadoop.hbase.filter中的类
-
A bit comparator which performs the specified bitwise operation on each of the bytes
with the specified byte array.
- BitComparator(byte[], BitComparator.BitwiseOp) - 类 的构造器org.apache.hadoop.hbase.filter.BitComparator
-
Constructor
- BitComparator.BitwiseOp - org.apache.hadoop.hbase.filter中的枚举
-
Bit operators.
- bitOperator - 类 中的变量org.apache.hadoop.hbase.filter.BitComparator
-
- bitvals - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterUtil
-
Bit-value lookup array to prevent doing the same work over and over
- BlackListDirFilter(FileSystem, List<String>) - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.BlackListDirFilter
-
Create a filter on the givem filesystem with the specified blacklist
- blacklistedRegions - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- blobVarEncodedLength(int) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Calculate the expected BlobVar encoded length based on unencoded length.
- BLOCK_CACHE_BLOOM_CHUNK_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_BLOOM_CHUNK_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_DATA_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_DATA_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_DELETE_FAMILY_BLOOM_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_DELETE_FAMILY_BLOOM_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_ENCODED_DATA_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_ENCODED_DATA_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_EVICTION_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_EVICTION_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_EXPRESS_HIT_PERCENT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_EXPRESS_HIT_PERCENT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FAILED_INSERTION_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FAILED_INSERTION_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FILE_INFO_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FILE_INFO_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FREE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_FREE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_GENERAL_BLOOM_META_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_GENERAL_BLOOM_META_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_HIT_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_HIT_PERCENT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_HIT_PERCENT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_INTERMEDIATE_INDEX_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_INTERMEDIATE_INDEX_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_LEAF_INDEX_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_LEAF_INDEX_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_META_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_META_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_PRIMARY_EVICTION_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_PRIMARY_EVICTION_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_PRIMARY_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_PRIMARY_HIT_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_PRIMARY_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_ROOT_INDEX_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_ROOT_INDEX_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_SIZE_MAX_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- BLOCK_CACHE_SIZE_MIN_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- BLOCK_CACHE_TRAILER_HIT_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_CACHE_TRAILER_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_COUNT_MISS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_COUNT_PRIMARY_MISS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.Cipher
-
- BLOCK_STORAGE_POLICY_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- BLOCKCACHE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Key for the BLOCKCACHE attribute.
- BLOCKCACHE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- BlockCache - org.apache.hadoop.hbase.io.hfile中的接口
-
Block cache interface.
- BLOCKCACHE_BLOCKSIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
The target block size used by blockcache instances.
- BLOCKCACHE_SIZE_GAUGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BLOCKCACHE_SIZE_GAUGE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BlockCacheKey - org.apache.hadoop.hbase.io.hfile中的类
-
Cache Key for use with implementations of
BlockCache
- BlockCacheKey(String, long) - 类 的构造器org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
Construct a new BlockCacheKey
- BlockCacheKey(String, long, boolean, BlockType) - 类 的构造器org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- BlockCacheUtil - org.apache.hadoop.hbase.io.hfile中的类
-
Utilty for aggregating counts in CachedBlocks and toString/toJSON CachedBlocks and BlockCaches.
- BlockCacheUtil() - 类 的构造器org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- BlockCacheUtil.CachedBlocksByFile - org.apache.hadoop.hbase.io.hfile中的类
-
Use one of these to keep a running account of cached blocks by file.
- BLOCKED_FLUSH_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BLOCKED_FLUSH_GAUGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BLOCKED_FLUSH_GAUGE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BLOCKED_FLUSH_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- BLOCKED_REQUESTS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- BLOCKED_REQUESTS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- blockEncoder - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
The data block encoding which will be used.
- blockFetches - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- BlockIndexNotLoadedException() - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.BlockIndexNotLoadedException
-
- BlockIndexWriter() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Creates a single-level block index writer
- BlockIndexWriter(HFileBlock.Writer, CacheConfig, String) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Creates a multi-level block index writer.
- BLOCKING_STOREFILES_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- BlockingRpcCallback<R> - org.apache.hadoop.hbase.ipc中的类
-
- BlockingRpcCallback() - 类 的构造器org.apache.hadoop.hbase.ipc.BlockingRpcCallback
-
- BlockingRpcCallback() - 类 的构造器org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils.BlockingRpcCallback
-
- BlockingRpcChannelImplementation(AbstractRpcClient<?>, InetSocketAddress, User, int) - 类 的构造器org.apache.hadoop.hbase.ipc.AbstractRpcClient.BlockingRpcChannelImplementation
-
- BlockingRpcClient - org.apache.hadoop.hbase.ipc中的类
-
Does RPC against a cluster.
- BlockingRpcClient(Configuration, String, SocketAddress, MetricsConnection) - 类 的构造器org.apache.hadoop.hbase.ipc.BlockingRpcClient
-
Construct an IPC client for the cluster clusterId with the default SocketFactory This
method is called with reflection by the RpcClientFactory to create an instance
- BlockingServiceAndInterface(BlockingService, Class<?>) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- blockOnSync(SyncFuture) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- BlockPriority - org.apache.hadoop.hbase.io.hfile中的枚举
-
- blockSeek(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
Within a loaded block, seek looking for the last key that is smaller than
(or equal to?)
- BLOCKSIZE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Size of storefile/hfile 'blocks'.
- BLOCKSIZE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- blocksize - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- blocksize - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
Block size to use writing files.
- BlockType - org.apache.hadoop.hbase.io.hfile中的枚举
-
Various types of HFile blocks.
- BlockType.BlockCategory - org.apache.hadoop.hbase.io.hfile中的枚举
-
- blockUntilAvailable(ZKWatcher, long, Configuration) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Wait until the primary meta region is available.
- blockUntilAvailable(ZKWatcher, long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Wait until the meta region is available and is not in transition.
- blockUntilAvailable(ZKWatcher, int, long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Wait until the meta region is available and is not in transition.
- blockUntilAvailable() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Gets the data of the node, blocking until the node is available.
- blockUntilAvailable(long, boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Gets the data of the node, blocking until the node is available or the
specified timeout has elapsed.
- blockUpdates() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- blockUpdates() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- BlockWithScanInfo - org.apache.hadoop.hbase.io.hfile中的类
-
BlockWithScanInfo is wrapper class for HFileBlock with other attributes.
- BlockWithScanInfo(HFileBlock, Cell) - 类 的构造器org.apache.hadoop.hbase.io.hfile.BlockWithScanInfo
-
- blockWriter - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
block writer
- blockWritten(long, int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- blockWritten(long, int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Called after an inline block has been written so that we can add an
entry referring to that block to the parent-level index.
- blockWritten(long, int, int) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
Called after a block has been written, and its offset, raw size, and
compressed size have been determined.
- bloom - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Bloom bits
- BLOOM_FILTER_DATA_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Meta data block name for bloom filter bits.
- BLOOM_FILTER_TYPE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Bloom filter Type in FileInfo
- BloomContext - org.apache.hadoop.hbase.util中的类
-
The bloom context that is used by the StorefileWriter to add the bloom details
per cell
- BloomContext(BloomFilterWriter, CellComparator) - 类 的构造器org.apache.hadoop.hbase.util.BloomContext
-
- BLOOMFILTER - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- BLOOMFILTER - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- BloomFilter - org.apache.hadoop.hbase.util中的接口
-
Implements a Bloom filter, as defined by Bloom in 1970.
- BloomFilterBase - org.apache.hadoop.hbase.util中的接口
-
Common methods Bloom filter methods required at read and write time.
- BloomFilterChunk - org.apache.hadoop.hbase.util中的类
-
- BloomFilterChunk(DataInput) - 类 的构造器org.apache.hadoop.hbase.util.BloomFilterChunk
-
Loads bloom filter meta data from file input.
- BloomFilterChunk(int, BloomType) - 类 的构造器org.apache.hadoop.hbase.util.BloomFilterChunk
-
- BloomFilterChunk(int, double, int, int) - 类 的构造器org.apache.hadoop.hbase.util.BloomFilterChunk
-
Determines & initializes bloom filter meta data from user config.
- BloomFilterFactory - org.apache.hadoop.hbase.util中的类
-
Handles Bloom filter initialization based on configuration and serialized metadata in the reader
and writer of
HStoreFile.
- bloomFilterType - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- BloomFilterUtil - org.apache.hadoop.hbase.util中的类
-
Utility methods related to BloomFilters
- bloomFilterWriter - 类 中的变量org.apache.hadoop.hbase.util.BloomContext
-
- BloomFilterWriter - org.apache.hadoop.hbase.util中的接口
-
Specifies methods needed to add elements to a Bloom filter and serialize the
resulting Bloom filter as a sequence of bytes.
- BloomType - org.apache.hadoop.hbase.regionserver中的枚举
-
- bloomType - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
The type of bloom
- BOGUS_SERVER_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.LoadBalancer
-
- boundaries - 类 中的变量org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- BoundaryMultiWriter(CellComparator, List<byte[]>, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- BoundaryStripeFlushRequest(CellComparator, List<byte[]>) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.BoundaryStripeFlushRequest
-
- BoundedCompletionService<V> - org.apache.hadoop.hbase.util中的类
-
A completion service, close to the one available in the JDK 1.7
However, this ones keeps the list of the future, and allows to cancel them all.
- BoundedCompletionService(Executor, int) - 类 的构造器org.apache.hadoop.hbase.util.BoundedCompletionService
-
- BoundedGroupingStrategy - org.apache.hadoop.hbase.wal中的类
-
A WAL grouping strategy that limits the number of wal groups to
"hbase.wal.regiongrouping.numgroups".
- BoundedGroupingStrategy() - 类 的构造器org.apache.hadoop.hbase.wal.BoundedGroupingStrategy
-
- BoundedPriorityBlockingQueue<E> - org.apache.hadoop.hbase.util中的类
-
A generic bounded blocking Priority-Queue.
- BoundedPriorityBlockingQueue(int, Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
Creates a PriorityQueue with the specified capacity that orders its
elements according to the specified comparator.
- BUCKET_CACHE_BUCKETS_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
A comma-delimited array of values for use as bucket sizes.
- BUCKET_CACHE_IOENGINE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Current ioengine options in include: heap, offheap and file:PATH (where PATH is the path
to the file that will host the file-based cache.
- BUCKET_CACHE_PERSISTENT_PATH_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
If the chosen ioengine can persist its state across restarts, the path to the file to persist
to.
- BUCKET_CACHE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
When using bucket cache, this is a float that EITHER represents a percentage of total heap
memory size to give to the cache (if < 1.0) OR, it is the capacity in
megabytes of the cache.
- BUCKET_CACHE_WRITER_QUEUE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- BUCKET_CACHE_WRITER_THREADS_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- buf - 类 中的变量org.apache.hadoop.hbase.ByteBufferKeyValue
-
- BUFFER_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.ByteBufferPool
-
- buffered() - 接口 中的方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutput
-
Return the current size of buffered data.
- buffered() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutput
-
- buffered() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.WrapperAsyncFSOutput
-
- BufferedMutator - org.apache.hadoop.hbase.client中的接口
-
Used to communicate with a single HBase table similar to
Table but meant for
batched, asynchronous puts.
- BufferedMutator.ExceptionListener - org.apache.hadoop.hbase.client中的接口
-
- BufferedMutatorExample - org.apache.hadoop.hbase.client.example中的类
-
- BufferedMutatorExample() - 类 的构造器org.apache.hadoop.hbase.client.example.BufferedMutatorExample
-
- BufferedMutatorImpl - org.apache.hadoop.hbase.client中的类
-
Used to communicate with a single HBase table similar to
Table
but meant for batched, potentially asynchronous puts.
- BufferedMutatorParams - org.apache.hadoop.hbase.client中的类
-
- BufferedMutatorParams(TableName) - 类 的构造器org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- bufsFromPool - 类 中的变量org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- build() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStatsBuilder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptorBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.client.TableBuilder
-
Create the
Table instance.
- build() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- build() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- build() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContextBuilder
-
- build(Configuration, TableName, String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create an HFileLink instance from table/region/family/hfile location
- build() - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor.Builder
-
- build() - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- build() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter.Builder
-
Create a store file writer.
- build() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Builds the configuration object from the current state of this.
- build() - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- build() - 类 中的方法org.apache.hadoop.hbase.util.RegionMover.RegionMoverBuilder
-
This method builds the appropriate RegionMover object which can then be used to load/unload
using load and unload methods
- buildActionResult(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Wrap a throwable to an action result.
- buildActionResult(ClientProtos.Result) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Wrap a throwable to an action result.
- buildAddColumnRequest(TableName, ColumnFamilyDescriptor, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer AddColumnRequest
- buildAddReplicationPeerRequest(String, ReplicationPeerConfig, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildAssignRegionRequest(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer AssignRegionRequest
- buildBalanceRequest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer BalanceRequest
- buildBulkLoadHFileRequest(List<Pair<byte[], String>>, byte[], boolean, Token<?>, String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer bulk load request
- buildBulkLoadHFileRequest(List<Pair<byte[], String>>, byte[], boolean, Token<?>, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer bulk load request
- buildCatalogScanRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for running a catalog scan
- buildClearCompactionQueuesRequest(Set<String>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildClearDeadServersRequest(Collection<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildClearRegionBlockCacheRequest(List<RegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer ClearRegionBlockCacheRequest
- buildClearRegionBlockCacheResponse(HBaseProtos.CacheEvictionStats) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Creates a protocol buffer ClearRegionBlockCacheResponse
- buildCloseRegionRequest(ServerName, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a CloseRegionRequest for a given region name
- buildCloseRegionRequest(ServerName, byte[], ServerName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- buildCompactRegionRequest(byte[], boolean, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a CompactRegionRequest for a given region name
- buildCondition(byte[], byte[], byte[], ByteArrayComparable, HBaseProtos.CompareType, TimeRange) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer Condition
- buildCreateNamespaceRequest(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer CreateNamespaceRequest
- buildCreateTableRequest(TableDescriptor, byte[][], long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer CreateTableRequest
- buildDecommissionRegionServersRequest(List<ServerName>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildDeleteColumnRequest(TableName, byte[], long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer DeleteColumnRequest
- buildDeleteNamespaceRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer DeleteNamespaceRequest
- buildDeleteTableRequest(TableName, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer DeleteTableRequest
- buildDependencyClasspath(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Returns a classpath string built from the content of the "tmpjars" value in conf.
- buildDisableReplicationPeerRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildDisableTableRequest(TableName, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer DisableTableRequest
- buildEnableCatalogJanitorRequest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for enabling/disabling the catalog janitor
- buildEnableCatalogJanitorResponse(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Creates a response for the catalog scan request
- buildEnableReplicationPeerRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildEnableTableRequest(TableName, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer EnableTableRequest
- builder() - 类 中的静态方法org.apache.hadoop.hbase.CacheEvictionStats
-
- Builder() - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.Builder
-
- Builder(Configuration, CacheConfig, FileSystem) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileWriter.Builder
-
- Builder(Configuration, FileSystem) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileWriter.Builder
-
Creates Builder with cache configuration disabled
- buildException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
- buildFilter(String) - 类 中的静态方法org.apache.hadoop.hbase.rest.ResultGenerator
-
- buildFilterFromModel(ScannerModel) - 类 中的静态方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- buildFlushRegionRequest(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer FlushRegionRequest for a given region name
- buildFlushRegionRequest(byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer FlushRegionRequest for a given region name
- buildFromHFileLinkPattern(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- buildFromHFileLinkPattern(Path, Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- buildFromProto(MasterProtos.SetQuotaRequest) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
Converts the protocol buffer request into a QuotaSetting POJO.
- buildGetClusterStatusRequest(EnumSet<ClusterMetrics.Option>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetClusterStatusRequest
- buildGetLastFlushedSequenceIdRequest(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for querying the master the last flushed sequence Id for a region
- buildGetLastFlushedSequenceIdResponse(ClusterStatusProtos.RegionStoreSequenceIds) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Creates a response for the last flushed sequence Id request
- buildGetNamespaceDescriptorRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetNamespaceDescriptorRequest
- buildGetOnlineRegionRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer GetOnlineRegionRequest
- buildGetOnlineRegionResponse(List<RegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
A utility to build a GetOnlineRegionResponse.
- buildGetQuotaStatesRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Returns a QuotaProtos.GetQuotaStatesRequest object.
- buildGetRegionInfoRequest(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer GetRegionInfoRequest for a given region name
- buildGetRegionInfoRequest(byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer GetRegionInfoRequest for a given region name
- buildGetRegionInfoRequest(byte[], boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildGetRegionLoadRequest(TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer GetRegionLoadRequest for all regions/regions of a table.
- buildGetReplicationPeerConfigRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildGetRequest(byte[], Get) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer GetRequest for a client Get
- buildGetSchemaAlterStatusRequest(TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetSchemaAlterStatusRequest
- buildGetServerInfoRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a new GetServerInfoRequest
- buildGetServerInfoResponse(ServerName, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
A utility to build a GetServerInfoResponse.
- buildGetSpaceQuotaRegionSizesRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Returns a QuotaProtos.GetSpaceQuotaRegionSizesRequest object.
- buildGetSpaceQuotaSnapshotsRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Returns a QuotaProtos.GetSpaceQuotaSnapshotsRequest object.
- buildGetStoreFileRequest(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer GetStoreFileRequest for a given region name
- buildGetTableDescriptorsRequest(List<TableName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetTableDescriptorsRequest
- buildGetTableDescriptorsRequest(Pattern, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetTableDescriptorsRequest
- buildGetTableDescriptorsRequest(TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetTableDescriptorsRequest for a single table
- buildGetTableNamesRequest(Pattern, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetTableNamesRequest
- buildGetTableStateRequest(TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer GetTableStateRequest
- buildIncrementRequest(byte[], byte[], byte[], byte[], long, Durability, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a client increment
- buildIsBalancerEnabledRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer IsBalancerEnabledRequest
- buildIsCatalogJanitorEnabledRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for querying the master whether the catalog janitor is enabled
- buildIsCleanerChoreEnabledRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for querying the master whether the cleaner chore is enabled
- buildIsMasterRunningRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer IsMasterRunningRequest
- buildIsNormalizerEnabledRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer IsNormalizerEnabledRequest
- buildIsSplitOrMergeEnabledRequest(MasterSwitchType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer IsSplitOrMergeEnabledRequest
- buildJMXServiceURL(int, int) - 类 中的静态方法org.apache.hadoop.hbase.JMXListener
-
- buildListReplicationPeersRequest(Pattern) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildLockRequest(LockServiceProtos.LockType, String, TableName, List<RegionInfo>, String, long, long) - 类 中的静态方法org.apache.hadoop.hbase.client.locking.LockServiceClient
-
- buildMergeTableRegionsRequest(byte[][], boolean, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildModelFromPut(Put) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- buildModifyColumnRequest(TableName, ColumnFamilyDescriptor, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer ModifyColumnRequest
- buildModifyNamespaceRequest(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer ModifyNamespaceRequest
- buildModifyTableRequest(TableName, TableDescriptor, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer ModifyTableRequest
- buildMoveRegionRequest(byte[], ServerName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MoveRegionRequest
- buildMultiRowSpec(byte[][], int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- buildMutateRequest(byte[], byte[], byte[], byte[], ByteArrayComparable, HBaseProtos.CompareType, TimeRange, Put) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a conditioned put
- buildMutateRequest(byte[], byte[], byte[], byte[], ByteArrayComparable, HBaseProtos.CompareType, TimeRange, Delete) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a conditioned delete
- buildMutateRequest(byte[], byte[], byte[], byte[], ByteArrayComparable, HBaseProtos.CompareType, TimeRange, Mutation, ClientProtos.MutationProto.MutationType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildMutateRequest(byte[], byte[], byte[], byte[], ByteArrayComparable, HBaseProtos.CompareType, TimeRange, RowMutations) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for conditioned row mutations
- buildMutateRequest(byte[], Put) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a put
- buildMutateRequest(byte[], Append, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for an append
- buildMutateRequest(byte[], Increment, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a client increment
- buildMutateRequest(byte[], Delete) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MutateRequest for a delete
- buildNoDataRegionAction(byte[], RowMutations, List<CellScannable>, ClientProtos.RegionAction.Builder, ClientProtos.Action.Builder, ClientProtos.MutationProto.Builder) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MultiRequest for row mutations that does not hold data.
- buildNoDataRegionActions(byte[], Iterable<Action>, List<CellScannable>, ClientProtos.MultiRequest.Builder, ClientProtos.RegionAction.Builder, ClientProtos.Action.Builder, ClientProtos.MutationProto.Builder, long, Map<Integer, Integer>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer multirequest with NO data for a list of actions (data is carried
otherwise than via protobuf).
- buildNormalizeRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer NormalizeRequest
- buildObjectName(String) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- buildObjectName(String, Hashtable<String, String>) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- buildOfflineRegionRequest(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer OfflineRegionRequest
- buildOpenRegionRequest(ServerName, List<Pair<RegionInfo, List<ServerName>>>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer OpenRegionRequest to open a list of regions
- buildOpenRegionRequest(ServerName, RegionInfo, List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer OpenRegionRequest for a given region
- buildProcedureDescription(String, String, Map<String, String>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- buildRecommissionRegionServerRequest(ServerName, List<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildRegionAction(byte[], RowMutations) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer MultiRequest for row mutations.
- buildRegionActions(byte[], List<Action>, ClientProtos.MultiRequest.Builder, ClientProtos.RegionAction.Builder, ClientProtos.Action.Builder, ClientProtos.MutationProto.Builder, long, Map<Integer, Integer>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer multi request for a list of actions.
- buildRegionOpenInfo(RegionInfo, List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a RegionOpenInfo based on given region info and version of offline node
- buildRegionSpecifier(HBaseProtos.RegionSpecifier.RegionSpecifierType, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Convert a byte array to a protocol buffer RegionSpecifier
- buildRemoveReplicationPeerRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildResultFromModel(CellSetModel) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- buildRollWALWriterRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a new RollWALWriterRequest
- buildRowSpec(byte[], Map, long, long, int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- buildRunCatalogScanResponse(int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Creates a response for the catalog scan request
- buildRunCleanerChoreRequest() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for running cleaner chore
- buildRunCleanerChoreResponse(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Creates a response for the cleaner chore request
- buildScanRequest(byte[], Scan, int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer ScanRequest for a client Scan
- buildScanRequest(long, int, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer ScanRequest for a scanner id
- buildScanRequest(long, int, boolean, long, boolean, boolean, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer ScanRequest for a scanner id
- buildSecureWALHeader(Configuration, WALProtos.WALHeader.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- buildSetBalancerRunningRequest(boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer SetBalancerRunningRequest
- buildSetCleanerChoreRunningRequest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a request for enabling/disabling the cleaner chore
- buildSetNormalizerRunningRequest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer SetNormalizerRunningRequest
- buildSetQuotaRequestProto(QuotaSettings) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
Convert a QuotaSettings to a protocol buffer SetQuotaRequest.
- buildSetSplitOrMergeEnabledRequest(boolean, boolean, MasterSwitchType...) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer SetSplitOrMergeEnabledRequest
- buildSplitTableRegionRequest(RegionInfo, byte[], long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildStopServerRequest(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a new StopServerRequest
- buildTruncateTableRequest(TableName, boolean, long, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer TruncateTableRequest
- buildUnassignRegionRequest(byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Creates a protocol buffer UnassignRegionRequest
- buildUpdateFavoredNodesRequest(List<Pair<RegionInfo, List<ServerName>>>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a protocol buffer UpdateFavoredNodesRequest to update a list of favorednode mappings
- buildUpdateReplicationPeerConfigRequest(String, ReplicationPeerConfig) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- buildWALHeader(Configuration, WALProtos.WALHeader.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- buildWALHeader(Configuration, WALProtos.WALHeader.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureAsyncProtobufLogWriter
-
- buildWALHeader(Configuration, WALProtos.WALHeader.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- buildWarmupRegionRequest(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
Create a WarmupRegionRequest for a given region name
- buildZKQuorumServerString(String[], String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Build the ZK quorum server string with "server:clientport" list, separated by ','
- buldKeyValueTable(String[], String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
Method for building hashtable used for constructing ObjectName.
- BULK_LOAD - 类 中的静态变量org.apache.hadoop.hbase.wal.WALEdit
-
- BULK_OUTPUT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- BULK_OUTPUT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- BULK_OUTPUT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- BULKLOAD_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- BULKLOAD_MAX_RETRIES_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum time to retry for a failed bulk load request
- BULKLOAD_STAGING_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Staging dir used by bulk load
- BULKLOAD_TASK_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Meta key set when store file is a result of a bulk load
- BULKLOAD_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
- BulkLoadCellFilter - org.apache.hadoop.hbase.replication中的类
-
- BulkLoadCellFilter() - 类 的构造器org.apache.hadoop.hbase.replication.BulkLoadCellFilter
-
- bulkLoadHFile(byte[], String, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- bulkLoadHFile(StoreFileInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- bulkLoadHFile(RpcController, ClientProtos.BulkLoadHFileRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Atomically bulk load several HFiles into an open region
- bulkLoadHFiles(Collection<Pair<byte[], String>>, boolean, HRegion.BulkLoadListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Attempts to atomically load a group of hfiles.
- bulkLoadHFiles(Collection<Pair<byte[], String>>, boolean, HRegion.BulkLoadListener, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Attempts to atomically load a group of hfiles.
- BulkLoadObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Coprocessors implement this interface to observe and mediate bulk load operations.
- BusyRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
This class represents a split policy which makes the split decision based
on how busy a region is.
- BusyRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- bypass() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
Call to indicate that the current coprocessor's return value (or parameter -- depends on the
call-type) should be used in place of the value that would be obtained via normal processing;
i.e. bypass the core call and return the Coprocessor's result instead.
- bypass() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- bypassGlobals(String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Set the "bypass global settings" for the specified user
- BYTE_ARRAY_BASE_OFFSET - 类 中的静态变量org.apache.hadoop.hbase.util.UnsafeAccess
-
The offset to the first element in a byte array.
- BYTE_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ByteBuffer
- ByteArrayComparable - org.apache.hadoop.hbase.filter中的类
-
Base class for byte array comparators
- ByteArrayComparable(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.ByteArrayComparable
-
Constructor.
- ByteArrayComparator() - 类 的构造器org.apache.hadoop.hbase.util.Bytes.ByteArrayComparator
-
Constructor
- ByteArrayHashKey - org.apache.hadoop.hbase.util中的类
-
- ByteArrayHashKey(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.ByteArrayHashKey
-
- ByteArrayOutputStream - org.apache.hadoop.hbase.io中的类
-
Our own implementation of ByteArrayOutputStream where all methods are NOT synchronized and
supports writing ByteBuffer directly to it.
- ByteArrayOutputStream() - 类 的构造器org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
- ByteArrayOutputStream(int) - 类 的构造器org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
- ByteBuff - org.apache.hadoop.hbase.nio中的类
-
An abstract class that abstracts out as to how the byte buffers are used,
either single or multiple.
- ByteBuff() - 类 的构造器org.apache.hadoop.hbase.nio.ByteBuff
-
- ByteBufferAllocator - org.apache.hadoop.hbase.util中的接口
-
Defines the way the ByteBuffers are created
- ByteBufferArray - org.apache.hadoop.hbase.util中的类
-
This class manages an array of ByteBuffers with a default size 4MB.
- ByteBufferArray(long, ByteBufferAllocator) - 类 的构造器org.apache.hadoop.hbase.util.ByteBufferArray
-
We allocate a number of byte buffers as the capacity.
- ByteBufferChunkKeyValue - org.apache.hadoop.hbase.regionserver中的类
-
ByteBuffer based cell which has the chunkid at the 0th offset
- ByteBufferChunkKeyValue(ByteBuffer, int, int) - 类 的构造器org.apache.hadoop.hbase.regionserver.ByteBufferChunkKeyValue
-
- ByteBufferChunkKeyValue(ByteBuffer, int, int, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.ByteBufferChunkKeyValue
-
- ByteBufferExtendedCell - org.apache.hadoop.hbase中的类
-
This class is a server side extension to the
Cell interface.
- ByteBufferExtendedCell() - 类 的构造器org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- ByteBufferInputStream - org.apache.hadoop.hbase.io中的类
-
Not thread safe!
- ByteBufferInputStream(ByteBuffer) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferInputStream
-
- ByteBufferKeyOnlyKeyValue - org.apache.hadoop.hbase中的类
-
This is a key only Cell implementation which is identical to
KeyValue.KeyOnlyKeyValue
with respect to key serialization but have its data in the form of Byte buffer
(onheap and offheap).
- ByteBufferKeyOnlyKeyValue() - 类 的构造器org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
Used in cases where we want to avoid lot of garbage by allocating new objects with different
keys.
- ByteBufferKeyOnlyKeyValue(ByteBuffer, int, int) - 类 的构造器org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- ByteBufferKeyValue - org.apache.hadoop.hbase中的类
-
This Cell is an implementation of
ByteBufferExtendedCell where the data resides in
off heap/ on heap ByteBuffer
- ByteBufferKeyValue(ByteBuffer, int, int, long) - 类 的构造器org.apache.hadoop.hbase.ByteBufferKeyValue
-
- ByteBufferKeyValue(ByteBuffer, int, int) - 类 的构造器org.apache.hadoop.hbase.ByteBufferKeyValue
-
- ByteBufferListOutputStream - org.apache.hadoop.hbase.io中的类
-
An OutputStream which writes data into ByteBuffers.
- ByteBufferListOutputStream(ByteBufferPool) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- ByteBufferOutputStream - org.apache.hadoop.hbase.io中的类
-
Not thread safe!
- ByteBufferOutputStream(int) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- ByteBufferOutputStream(int, boolean) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- ByteBufferOutputStream(ByteBuffer) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- ByteBufferPool - org.apache.hadoop.hbase.io中的类
-
Like Hadoops' ByteBufferPool only you do not specify desired size when getting a ByteBuffer.
- ByteBufferPool(int, int) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferPool
-
- ByteBufferPool(int, int, boolean) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferPool
-
- ByteBufferTag - org.apache.hadoop.hbase中的类
-
This is a
Tag implementation in which value is backed by
ByteBuffer
- ByteBufferTag(ByteBuffer, int, int) - 类 的构造器org.apache.hadoop.hbase.ByteBufferTag
-
- ByteBufferUtils - org.apache.hadoop.hbase.util中的类
-
Utility functions for working with byte buffers, such as reading/writing
variable-length long numbers.
- ByteBufferWriter - org.apache.hadoop.hbase.io中的接口
-
This interface marks a class to support writing ByteBuffers into it.
- ByteBufferWriterDataOutputStream - org.apache.hadoop.hbase.io中的类
-
Our extension of DataOutputStream which implements ByteBufferWriter
- ByteBufferWriterDataOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferWriterDataOutputStream
-
- ByteBufferWriterOutputStream - org.apache.hadoop.hbase.io中的类
-
When deal with OutputStream which is not ByteBufferWriter type, wrap it with this class.
- ByteBufferWriterOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferWriterOutputStream
-
- ByteBufferWriterOutputStream(OutputStream, int) - 类 的构造器org.apache.hadoop.hbase.io.ByteBufferWriterOutputStream
-
- ByteBuffInputStream - org.apache.hadoop.hbase.io中的类
-
Not thread safe!
- ByteBuffInputStream(ByteBuff) - 类 的构造器org.apache.hadoop.hbase.io.ByteBuffInputStream
-
- ByteRange - org.apache.hadoop.hbase.util中的接口
-
Lightweight, reusable class for specifying ranges of byte[]'s.
- ByteRangeUtils - org.apache.hadoop.hbase.util中的类
-
- ByteRangeUtils() - 类 的构造器org.apache.hadoop.hbase.util.ByteRangeUtils
-
- bytes - 类 中的变量org.apache.hadoop.hbase.KeyValue
-
- bytes - 类 中的变量org.apache.hadoop.hbase.util.AbstractByteRange
-
The array containing the bytes in this range.
- Bytes - org.apache.hadoop.hbase.util中的类
-
Utility class that handles byte arrays, conversions to/from other types,
comparisons, hash code generation, manufacturing keys for HashMaps or
HashSets, and can be used as key in maps or trees.
- Bytes() - 类 的构造器org.apache.hadoop.hbase.util.Bytes
-
Create a zero-size sequence.
- Bytes(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.Bytes
-
Create a Bytes using the byte array as the initial value.
- Bytes(Bytes) - 类 的构造器org.apache.hadoop.hbase.util.Bytes
-
Set the new Bytes to the contents of the passed
ibw.
- Bytes(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.Bytes
-
Set the value to a given byte range
- Bytes(ByteString) - 类 的构造器org.apache.hadoop.hbase.util.Bytes
-
- Bytes.ByteArrayComparator - org.apache.hadoop.hbase.util中的类
-
Byte array comparator class.
- Bytes.RowEndKeyComparator - org.apache.hadoop.hbase.util中的类
-
- BYTES_COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Pass this to TreeMaps where byte [] are keys.
- BYTES_COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- BYTES_PER_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The name of the configuration parameter that specifies
the number of bytes in a newly created checksum chunk.
- BYTES_RAWCOMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Use comparing byte arrays, byte-by-byte
- byteSize - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Bytes (B) in the array.
- bytesPerChecksum - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- bytesToVint(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- ByteStringer - org.apache.hadoop.hbase.util中的类
-
Hack to workaround HBASE-10304 issue that keeps bubbling up when a mapreduce context.
- byteStringUncompressor - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- cache - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- CACHE_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache data blocks on write.
- CACHE_BLOOM_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache compound bloom filter blocks on write.
- CACHE_BLOOMS_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- CACHE_BLOOMS_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- CACHE_DATA_BLOCKS_COMPRESSED_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache data blocks in compressed and/or encrypted format.
- CACHE_DATA_IN_L1 - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- CACHE_DATA_ON_READ_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache data blocks on read.
- CACHE_DATA_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- CACHE_DATA_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- CACHE_FIXED_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- CACHE_INDEX_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache leaf and intermediate-level index blocks on
write.
- CACHE_INDEX_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- CACHE_INDEX_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- Cacheable - org.apache.hadoop.hbase.io.hfile中的接口
-
Cacheable is an interface that allows for an object to be cached.
- Cacheable.MemoryType - org.apache.hadoop.hbase.io.hfile中的枚举
-
SHARED means when this Cacheable is read back from cache it refers to the same memory area as
used by the cache for caching it.
- CacheableDeserializer<T extends Cacheable> - org.apache.hadoop.hbase.io.hfile中的接口
-
Interface for a deserializer.
- CacheableDeserializerIdManager - org.apache.hadoop.hbase.io.hfile中的类
-
- CacheableDeserializerIdManager() - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
- cacheBlock(BlockCacheKey, Cacheable, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Add block to cache.
- cacheBlock(BlockCacheKey, Cacheable) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Add block to cache (defaults to not in-memory).
- cacheBlock(BlockCacheKey, Cacheable, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Cache the block with the specified name and buffer.
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Cache the block with the specified name and buffer.
- cacheBlock(BlockCacheKey, Cacheable, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- cacheBlocks - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- cacheConf - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- cacheConf - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Cache configuration for caching data on write.
- cacheConf - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- CacheConfig - org.apache.hadoop.hbase.io.hfile中的类
-
Stores all of the cache objects and configuration for a single HFile.
- CacheConfig(Configuration, ColumnFamilyDescriptor) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Create a cache configuration using the specified configuration object and
family descriptor.
- CacheConfig(Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Create a cache configuration using the specified configuration object and
defaults for family level settings.
- CacheConfig(CacheConfig) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Constructs a cache configuration copied from the specified configuration.
- cacheConfig - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- CachedBlock - org.apache.hadoop.hbase.io.hfile中的接口
-
- CachedMobFile - org.apache.hadoop.hbase.mob中的类
-
Cached mob file.
- CachedMobFile(HStoreFile) - 类 的构造器org.apache.hadoop.hbase.mob.CachedMobFile
-
- CacheEvictionStats - org.apache.hadoop.hbase中的类
-
- CacheEvictionStatsAggregator - org.apache.hadoop.hbase中的类
-
Used to merge CacheEvictionStats.
- CacheEvictionStatsAggregator() - 类 的构造器org.apache.hadoop.hbase.CacheEvictionStatsAggregator
-
- CacheEvictionStatsBuilder - org.apache.hadoop.hbase中的类
-
- cacheFlusher - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- cacheLocation(TableName, RegionLocations) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- cacheLocation(TableName, ServerName, HRegionLocation) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Put a newly discovered HRegionLocation into the cache.
- cacheLocation(TableName, RegionLocations) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Put a newly discovered HRegionLocation into the cache.
- CacheStats - org.apache.hadoop.hbase.io.hfile中的类
-
Class that implements cache metrics.
- CacheStats(String) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheStats
-
- CacheStats(String, int) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheStats
-
- caching - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- calcCoverage() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
Generates a coverage multimap from split key to Regions that start with the
split key.
- calcIndexKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- calcPercentage(long, long) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- calculateAutoBalancedSplits(List<InputSplit>, long) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Calculates the number of MapReduce input splits for the map tasks.
- calculateMutationSize(Mutation) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- calculateResultSize(Result) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- calculateResultSize(List<Result>) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- call(HBaseRpcController, AdminProtos.AdminService.Interface) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminRequestRetryingCaller.Callable
-
- call() - 类 中的方法org.apache.hadoop.hbase.client.AsyncMasterRequestRpcRetryingCaller
-
- call(HBaseRpcController, MasterProtos.MasterService.Interface) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncMasterRequestRpcRetryingCaller.Callable
-
- call(HBaseRpcController, ClientProtos.ClientService.Interface) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncServerRequestRpcRetryingCaller.Callable
-
- call() - 类 中的方法org.apache.hadoop.hbase.client.example.MultiThreadedClientExample.ReadExampleCallable
-
- call() - 类 中的方法org.apache.hadoop.hbase.client.example.MultiThreadedClientExample.SingleWriteExampleCallable
-
- call() - 类 中的方法org.apache.hadoop.hbase.client.example.MultiThreadedClientExample.WriteExampleCallable
-
- call(HBaseRpcController) - 类 中的方法org.apache.hadoop.hbase.client.FlushRegionCallable
-
- call(int) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- call(HBaseRpcController) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
Run RPC call.
- call(int) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- call(int) - 接口 中的方法org.apache.hadoop.hbase.client.RetryingCallable
-
Computes a result, or throws an exception if unable to do so.
- call(int) - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
Algo:
- we put the query into the execution pool
- call(S, RpcController, RpcCallback<R>) - 接口 中的方法org.apache.hadoop.hbase.client.ServiceCaller
-
Represent the actual protobuf rpc call.
- call(O) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.ObserverOperationWithoutResult
-
- call(O) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.ObserverOperationWithResult
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler, long, int) - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- call(RpcCall, MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
This is a server side method, which is invoked over RPC.
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler, long, int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- call(RpcCall, MonitoredRPCHandler) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler, long, int) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- call(Callable<T>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Contain ServiceException inside here.
- call(Class<T>, T, String, Class[], Object[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Methods
-
- CALL_QUEUE_CODEL_DEFAULT_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_DEFAULT_LIFO_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_DEFAULT_TARGET_DELAY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_LIFO_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_TARGET_DELAY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_HANDLER_FACTOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_READ_SHARE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- CALL_QUEUE_SCAN_SHARE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- CALL_QUEUE_TOO_BIG_EXCEPTION - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- CALL_QUEUE_TYPE_CODEL_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
The default, 'fifo', has the least friction but is dumb.
- CALL_QUEUE_TYPE_CONF_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_DEADLINE_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_FIFO_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- callable - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- callBlockingMethod(Descriptors.MethodDescriptor, RpcController, Message, Message) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient.BlockingRpcChannelImplementation
-
- CallCancelledException - org.apache.hadoop.hbase.ipc中的异常错误
-
Client side call cancelled.
- CallCancelledException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.CallCancelledException
-
- CallDroppedException - org.apache.hadoop.hbase中的异常错误
-
Returned to the clients when their request was discarded due to server being overloaded.
- CallDroppedException() - 异常错误 的构造器org.apache.hadoop.hbase.CallDroppedException
-
- CallDroppedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.CallDroppedException
-
- caller - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- CallerDisconnectedException - org.apache.hadoop.hbase.ipc中的异常错误
-
Exception indicating that the remote host making this IPC lost its
IPC connection.
- CallerDisconnectedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.CallerDisconnectedException
-
- callMethod(Descriptors.MethodDescriptor, RpcController, Message, Message, RpcCallback<Message>) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCoprocessorRpcChannelImpl
-
- callMethod(Descriptors.MethodDescriptor, RpcController, Message, Message, RpcCallback<Message>) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient.RpcChannelImplementation
-
- CallQueueInfo - org.apache.hadoop.hbase.ipc中的类
-
- callQueueSizeInBytes - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
This is a running count of the size in bytes of all outstanding calls whether currently
executing or queued waiting to be run.
- CallQueueTooBigException - org.apache.hadoop.hbase中的异常错误
-
- CallQueueTooBigException() - 异常错误 的构造器org.apache.hadoop.hbase.CallQueueTooBigException
-
- CallQueueTooBigException(String) - 异常错误 的构造器org.apache.hadoop.hbase.CallQueueTooBigException
-
- CallRunner - org.apache.hadoop.hbase.ipc中的类
-
The request processing logic, which is usually executed in thread pools provided by an
RpcScheduler.
- CallStats() - 类 的构造器org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- CallTimeoutException - org.apache.hadoop.hbase.ipc中的异常错误
-
Client-side call timeout
- CallTimeoutException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.CallTimeoutException
-
- callWithoutRetries(RetryingCallable<T>, int) - 接口 中的方法org.apache.hadoop.hbase.client.RpcRetryingCaller
-
Call the server once only.
- callWithoutRetries(RetryingCallable<T>, int) - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- callWithRetries(RetryingCallable<T>, int) - 接口 中的方法org.apache.hadoop.hbase.client.RpcRetryingCaller
-
Retries if invocation fails.
- callWithRetries(RetryingCallable<T>, int) - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- canBeFlattened() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellArrayImmutableSegment
-
- canBeFlattened() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- canBeFlattened() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- canBeFlattened() - 类 中的方法org.apache.hadoop.hbase.regionserver.CSLMImmutableSegment
-
- canBeFlattened() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- cancel(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- cancel() - 接口 中的方法org.apache.hadoop.hbase.client.RpcRetryingCaller
-
- cancel() - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- cancel(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- cancel(boolean) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- cancel(String) - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Actively cancel a running snapshot.
- cancel() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- cancel(boolean) - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- CancelableProgressable - org.apache.hadoop.hbase.util中的接口
-
Similar interface as Progressable but returns
a boolean to support canceling the operation.
- cancelAll() - 类 中的方法org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
- cancelAll(boolean) - 类 中的方法org.apache.hadoop.hbase.util.BoundedCompletionService
-
- cancelChore(ScheduledChore) - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- cancelChore(ScheduledChore, boolean) - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- cancelConnections(ServerName) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
Interrupt the connections to the given ip:port server.
- cancelConnections(ServerName) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcClient
-
Interrupt the connections to the given server.
- cancelLease(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Client explicitly cancels a lease.
- cancelRequestedCompaction(CompactionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- canCreateBaseZNode() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- canCreateBaseZNode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- canExecute() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Is there at least one resource available to allow execution?
- canExecute(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Are there enough available resources to allow execution?
- canPlaceFavoredNodes() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- canReplicateToSameCluster() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- canReplicateToSameCluster() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Whether or not, the replication endpoint can replicate to it's source cluster with the same
UUID
- canSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- canSplit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns whether this store is splittable, i.e., no reference file in this store.
- canTakeRow(HRegionLocation, Row) - 接口 中的方法org.apache.hadoop.hbase.client.RequestController.Checker
-
Checks the data whether it is valid to submit.
- canUpdateTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- canUpdateTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- capacity() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- capacity() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- capacity() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- carryForwardTags(Cell) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
- carryForwardTags(List<Tag>, Cell) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
Add to tagsOrNull any Tags cell is carrying or null if none.
- carryForwardTTLTag(List<Tag>, long) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
- cast(Class<?>) - 类 中的静态方法org.apache.hadoop.hbase.util.Classes
-
- castToCellType(S) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
The response message comes as type S.
- castToReturnType(T) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
provides casting opportunity between the data types.
- CATALOG_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The catalog family
- CATALOG_FAMILY_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The catalog family as a string
- CatalogJanitor - org.apache.hadoop.hbase.master中的类
-
A janitor for the catalog tables.
- catalogJanitorSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Enable/Disable the catalog janitor/
- catalogJanitorSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Turn the catalog janitor on/off.
- catalogJanitorSwitch(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cConnection - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- ceiling(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- ceilingEntry(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- ceilingEntry(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- ceilingKey(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- ceilingKey(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- Cell - org.apache.hadoop.hbase中的接口
-
The unit of storage in HBase consisting of the following fields:
1) row
2) column family
3) column qualifier
4) timestamp
5) type
6) MVCC version
7) value
Uniqueness is determined by the combination of row, column family, column qualifier,
timestamp, and type.
- Cell.Type - org.apache.hadoop.hbase中的枚举
-
The valid types for user to build the cell.
- CELL_ARRAY_MAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CellArrayMap
- CELL_ARRAY_MAP_ENTRY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for Cell Array Entry
- CELL_CHUNK_MAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CellChunkMap
- CELL_CHUNK_MAP_ENTRY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for Cell Chunk Map Entry
- CELL_FLAT_MAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CellFlatMap
- CELL_NOT_BASED_ON_CHUNK - 接口 中的静态变量org.apache.hadoop.hbase.ExtendedCell
-
- CELL_SET - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CellSkipListSet
- CELL_TTL_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- CELL_VISIBILITY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- CellArrayImmutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
- CellArrayImmutableSegment(CellComparator, MemStoreSegmentsIterator, MemStoreLAB, int, MemStoreCompactionStrategy.Action) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellArrayImmutableSegment
-
------------------------------------------------------------------------
C-tor to be used when new CellArrayImmutableSegment is a result of compaction of a
list of older ImmutableSegments.
- CellArrayImmutableSegment(CSLMImmutableSegment, MemStoreSizing, MemStoreCompactionStrategy.Action) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellArrayImmutableSegment
-
------------------------------------------------------------------------
C-tor to be used when new CellChunkImmutableSegment is built as a result of flattening
of CSLMImmutableSegment
The given iterator returns the Cells that "survived" the compaction.
- CellArrayMap - org.apache.hadoop.hbase.regionserver中的类
-
CellArrayMap is a simple array of Cells and cannot be allocated off-heap.
- CellArrayMap(Comparator<? super Cell>, Cell[], int, int, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellArrayMap
-
- cellBlockBuilder - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- cellBlockBuilder - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- CellBuilder - org.apache.hadoop.hbase中的接口
-
- CellBuilderFactory - org.apache.hadoop.hbase中的类
-
Create a CellBuilder instance.
- CellBuilderType - org.apache.hadoop.hbase中的枚举
-
- CellChunkImmutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
- CellChunkImmutableSegment(CellComparator, MemStoreSegmentsIterator, MemStoreLAB, int, MemStoreCompactionStrategy.Action) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
------------------------------------------------------------------------
C-tor to be used when new CellChunkImmutableSegment is built as a result of compaction/merge
of a list of older ImmutableSegments.
- CellChunkImmutableSegment(CSLMImmutableSegment, MemStoreSizing, MemStoreCompactionStrategy.Action) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
------------------------------------------------------------------------
C-tor to be used when new CellChunkImmutableSegment is built as a result of flattening
of CSLMImmutableSegment
The given iterator returns the Cells that "survived" the compaction.
- CellChunkMap - org.apache.hadoop.hbase.regionserver中的类
-
CellChunkMap is an array of serialized representations of Cell
(pointing to Chunks with full Cell data) and can be allocated both off-heap and on-heap.
- CellChunkMap(Comparator<? super Cell>, Chunk[], int, int, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellChunkMap
-
C-tor for creating CellChunkMap from existing Chunk array, which must be ordered
(decreasingly or increasingly according to parameter "descending")
- CellComparator - org.apache.hadoop.hbase中的接口
-
Comparator for comparing cells and has some specialized methods that allows comparing individual
cell components like row, family, qualifier and timestamp
- CellComparatorImpl - org.apache.hadoop.hbase中的类
-
Compare two HBase cells.
- CellComparatorImpl() - 类 的构造器org.apache.hadoop.hbase.CellComparatorImpl
-
- CellComparatorImpl.MetaCellComparator - org.apache.hadoop.hbase中的类
-
- CellCounter - org.apache.hadoop.hbase.mapreduce中的类
-
A job with a a map and reduce phase to count cells in a table.
- CellCounter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellCounter
-
- CellCreator - org.apache.hadoop.hbase.mapreduce中的类
-
Facade to create Cells for HFileOutputFormat.
- CellCreator(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellCreator
-
- cellDecoder - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- CellDeserializer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellSerialization.CellDeserializer
-
- cellEncoder - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- CellFlatMap - org.apache.hadoop.hbase.regionserver中的类
-
CellFlatMap stores a constant number of elements and is immutable after creation stage.
- CellFlatMap(Comparator<? super Cell>, int, int, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- CellHashKey - org.apache.hadoop.hbase.util中的类
-
Extracts the byte for the hash calculation from the given cell
- CellHashKey(Cell) - 类 的构造器org.apache.hadoop.hbase.util.CellHashKey
-
- CellImporter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellImporter
-
- CellOutputStream - org.apache.hadoop.hbase.io中的接口
-
Accepts a stream of Cells.
- CellReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellReducer
-
- CELLS_COUNT_COMPACTED_FROM_MOB - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_COUNT_COMPACTED_FROM_MOB_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_COUNT_COMPACTED_TO_MOB - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_COUNT_COMPACTED_TO_MOB_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_SIZE_COMPACTED_FROM_MOB - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_SIZE_COMPACTED_FROM_MOB_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_SIZE_COMPACTED_TO_MOB - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CELLS_SIZE_COMPACTED_TO_MOB_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CellScannable - org.apache.hadoop.hbase中的接口
-
Implementer can return a CellScanner over its Cell content.
- cellScanner() - 接口 中的方法org.apache.hadoop.hbase.CellScannable
-
- CellScanner - org.apache.hadoop.hbase中的接口
-
An interface for iterating through a sequence of cells.
- cellScanner() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- cellScanner() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- cellScanner() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- cellScanner() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- CellScannerButNoCodecException - org.apache.hadoop.hbase.ipc中的异常错误
-
Thrown if a cellscanner but no codec to encode it with.
- CellScannerButNoCodecException() - 异常错误 的构造器org.apache.hadoop.hbase.ipc.CellScannerButNoCodecException
-
- CellSerialization - org.apache.hadoop.hbase.mapreduce中的类
-
Use to specify the type of serialization for the mappers and reducers
- CellSerialization() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellSerialization
-
- CellSerialization.CellDeserializer - org.apache.hadoop.hbase.mapreduce中的类
-
- CellSerialization.CellSerializer - org.apache.hadoop.hbase.mapreduce中的类
-
- CellSerializer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellSerialization.CellSerializer
-
- CellSet - org.apache.hadoop.hbase.regionserver中的类
-
A
Set of
Cells, where an add will overwrite the entry if already
exists in the set.
- CellSetModelStream() - 类 的构造器org.apache.hadoop.hbase.rest.TableScanResource.CellSetModelStream
-
- CellSetModelStream(ArrayList<RowModel>) - 类 的构造器org.apache.hadoop.hbase.rest.TableScanResource.CellSetModelStream
-
- CellSink - org.apache.hadoop.hbase.regionserver中的接口
-
A sink of cells that allows appending cells to the Writers that implement it.
- CellSortImporter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellSortImporter
-
- CellSortReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Emits sorted Cells.
- CellSortReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellSortReducer
-
- CellUtil - org.apache.hadoop.hbase中的类
-
Utility methods helpful for slinging
Cell instances.
- cellVisibilityExpr - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- CellWritableComparable() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable
-
- CellWritableComparable(Cell) - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable
-
- CellWritableComparablePartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparablePartitioner
-
- CellWritableComparator() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable.CellWritableComparator
-
- CF_RENAME_PROP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- CFNAME - 类 中的静态变量org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- cfName - 类 中的变量org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- ChainWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
A
WALEntryFilter which contains multiple filters and applies them
in chain order
- ChainWALEntryFilter(WALEntryFilter...) - 类 的构造器org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- ChainWALEntryFilter(List<WALEntryFilter>) - 类 的构造器org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- chance - 类 中的变量org.apache.hadoop.hbase.filter.RandomRowFilter
-
- ChangedReadersObserver - org.apache.hadoop.hbase.regionserver中的接口
-
If set of MapFile.Readers in Store change, implementors are notified.
- channelInactive(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClientHandler
-
- channelInactive(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.SaslUnwrapHandler
-
- channelRead(ReadableByteChannel, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- channelRead(ReadableByteChannel, ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
- channelRead0(ChannelHandlerContext, ByteBuf) - 类 中的方法org.apache.hadoop.hbase.security.CryptoAESUnwrapHandler
-
- channelRead0(ChannelHandlerContext, ByteBuf) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseRpcConnectionHeaderHandler
-
- channelRead0(ChannelHandlerContext, ByteBuf) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClientHandler
-
- channelRead0(ChannelHandlerContext, ByteBuf) - 类 中的方法org.apache.hadoop.hbase.security.SaslUnwrapHandler
-
- channelWrite(GatheringByteChannel, BufferChain) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- check(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- check(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DisableTableViolationPolicyEnforcement
-
- check(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- check(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoInsertsViolationPolicyEnforcement
-
- check(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesViolationPolicyEnforcement
-
- check(Mutation) - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
Checks the given
Mutation against
this policy.
- CHECK_AND_DELETE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CHECK_AND_PUT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CHECK_MUTATE_FAILED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CHECK_MUTATE_FAILED_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CHECK_MUTATE_PASSED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CHECK_MUTATE_PASSED_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- checkAccess(UserGroupInformation, FileStatus, FsAction) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Throw an exception if an action is not permitted by a user on a file.
- checkActiveSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
Check whether anything need to be done based on the current active set size
- checkActiveSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
Check whether anything need to be done based on the current active set size.
- checkActiveSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Check whether anything need to be done based on the current active set size
Nothing need to be done for the DefaultMemStore
- checkAndDelete(byte[], byte[], byte[], byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndDelete(byte[], byte[], byte[], CompareOperator, byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndDelete(byte[], byte[], byte[], byte[], Delete) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Delete) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndDelete(byte[], byte[], byte[], CompareOperator, byte[], Delete) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndDelete(byte[], byte[], byte[], byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- checkAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndDelete(byte[], byte[], byte[], CompareOperator, byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndGetInstance(Class<?>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Called when a new Coprocessor class needs to be loaded.
- checkAndGetInstance(Class<?>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- checkAndGetInstance(Class<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- checkAndGetInstance(Class<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- checkAndGetInstance(Class<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- checkAndGetReversed(List<Filter>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.filter.FilterListBase
-
- checkAndLoadInstance(Class<?>, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- checkAndMutate(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Atomically checks if a row/family/qualifier value matches the expected value.
- checkAndMutate(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], RowMutations) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndMutate(byte[], byte[], byte[], CompareOperator, byte[], RowMutations) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndMutate(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Atomically checks if a row/family/qualifier value matches the expected value.
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndMutate(byte[], byte[], byte[], CompareOperator, byte[], RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, TimeRange, Mutation) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkAndMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Mutation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected value and if it does,
it performs the mutation.
- checkAndMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, TimeRange, Mutation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected value and if it does,
it performs the mutation.
- checkAndMutate(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], RowMutations) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndMutate(byte[], byte[], byte[], CompareOperator, byte[], RowMutations) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], CompareOperator, byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], byte[], Put) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Put) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndPut(byte[], byte[], byte[], CompareOperator, byte[], Put) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- checkAndPut(byte[], byte[], byte[], byte[], Put) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Put) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndPut(byte[], byte[], byte[], CompareOperator, byte[], Put) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- checkAndRowMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, TimeRange, RowMutations) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkAndRowMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, RowMutations) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected values and if it does,
it performs the row mutations.
- checkAndRowMutate(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, TimeRange, RowMutations) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected values and if it does,
it performs the row mutations.
- checkAndSetZNodeAcls() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
On master start, we check the znode ACLs under the root directory and set the ACLs properly
if needed.
- checkAndUpdateNamespaceRegionQuota(TableName, int) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- checkBlockBoundary() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
At a block boundary, write all the inline blocks and opens new block.
- checkBulkLoad(FileSystem, List<String>) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- checkBulkLoad(FileSystem, List<String>) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- checkBulkLoad(FileSystem, List<String>) - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
- checkClusterIdExists(FileSystem, Path, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks that a cluster ID file exists in the HBase root directory
- checkColFamDir(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check all files in a column family dir.
- checkColumn(Cell, byte) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkColumn(Cell, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkColumn(Cell, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- checkColumn(Cell, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkDeleted(DeleteTracker, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- checkDfsSafeMode(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Check whether dfs is in safemode.
- checkDifferencesWithOldPlan(Map<TableName, Integer>, Map<String, Map<String, Float>>, FavoredNodesPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Compares two plans and check whether the locality dropped or increased
(prints the information as a string) also prints the baseline locality
- checkExists(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Check if the specified node exists.
- checkFailed() - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
Throws an IOException back out if one is currently stored.
- checkFamilies(Collection<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Check the collection of families for validity.
- checkFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Checks to see if the file system is still accessible.
- checkFileSystemAvailable(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks to see if the specified file system is available
- checkFlushed() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- checkForAnd(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Checks if the current index of filter string we are on is the beginning of the keyword 'AND'
- checkForClusterFreeHeapMemoryLimit(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Checks whether we have enough heap memory left out after portion for Memstore and Block cache.
- checkFormatVersion(int) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Checks the given
HFile format version, and throws an exception if
invalid.
- checkForOr(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Checks if the current index of filter string we are on is the beginning of the keyword 'OR'
- checkForSkip(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Checks if the current index of filter string we are on is the beginning of the keyword 'SKIP'
- checkForTagsLength(int) - 接口 中的静态方法org.apache.hadoop.hbase.RawCell
-
Check the length of tags.
- checkForWhile(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Checks if the current index of filter string we are on is the beginning of the keyword 'WHILE'
- checkHFile(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Checks a path to see if it is a valid hfile.
- checkHFileVersion(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- checkIfBaseNodeAvailable() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Checks if the baseznode set as per the property 'zookeeper.znode.parent'
exists.
- checkIfRegionServerIsRemote() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
compare the local machine hostname with region server's hostname to decide if hbase client
connects to a remote region server
- checkIfShouldMoveSystemRegionAsync() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- checkIfShouldMoveSystemRegionAsync() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Called when a new RegionServer is added to the cluster.
- checkKey(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Checks that the given Cell's key does not violate the key order.
- checkKeyLen(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- checkKeyValueLen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
Check key and value lengths are wholesome.
- checkLen(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- checkLogLowReplication(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- checkMobColFamDir(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check all files in a mob column family dir.
- checkMobFile(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Checks a path to see if it is a valid mob file.
- checkNamespaceTableAndRegionQuota(TableName, int) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- checkOnlyMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
StoreFiles will not be scanned.
- checkOnlyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
MemStore will not be scanned.
- checkOOME(Throwable) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRPCErrorHandler
-
Take actions on the event of an OutOfMemoryError.
- checkOOME(Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- checkOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Called to verify that this server is up and running.
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Checks if the output table exists and is enabled.
- checkPermission(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- checkQuota(int, int, int) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- checkQuota(int, int, int) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Checks if it is possible to execute the specified operation.
- checkQuota(long, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Checks if it is possible to execute the specified operation.
- checkQuota(Region, OperationQuota.OperationType) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
Check the quota for the current (rpc-context) user.
- checkQuota(Region, List<ClientProtos.Action>) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
Check the quota for the current (rpc-context) user.
- checkQuota(long, long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- checkQuotaToCreateTable(TableName, int) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Check quota to create table.
- checkQuotaToSplitRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- checkQuotaToUpdateRegion(TableName, int) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Check and update region count quota for an existing table.
- checkReadOnly() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkReadsEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkRegionBoundaries() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- checkRegionChain(TableIntegrityErrorHandler) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
Check the region chain (from META) of this table.
- checkRegionDir(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check all column families in a region dir.
- checkRow(Cell) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexEncoderV1
-
- checkScanOrder(Cell, Cell, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- checkScanOrder(Cell, Cell, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Check whether scan as expected order
- checkShortCircuitReadBufferSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Check if short circuit read buffer size is set and if not, set it to hbase value.
- checkShortCircuitReadBufferSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Check if short circuit read buffer size is set and if not, set it to hbase value.
- checkSizeAndGrow(int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- checkSizeAndGrow(int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- checkSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Return the splitpoint. null indicates the region isn't splittable
If the splitpoint isn't explicitly specified, it will go over the stores
to find the best splitpoint.
- checkState(int) - 接口 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture.WaitForStateCallable
-
- CHECKSUM_FAILURES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
- CHECKSUM_FAILURES_KEY - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
- CHECKSUM_TYPE_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The name of the configuration parameter that specifies
the name of an algorithm that is used to compute checksums
for newly created blocks.
- checksumOk() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Report that checksum was ok, so we may ponder going back to HBase checksum.
- checksumType - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
Checksum configuration
- ChecksumType - org.apache.hadoop.hbase.util中的枚举
-
Checksum types.
- ChecksumUtil - org.apache.hadoop.hbase.io.hfile中的类
-
Utility methods to compute and validate checksums.
- ChecksumUtil() - 类 的构造器org.apache.hadoop.hbase.io.hfile.ChecksumUtil
-
- checkTableModifiable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- checkTableModifiable(TableName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Check table is modifiable; i.e. exists and is offline.
- checkTables(Collection<Path>) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check the specified table dirs for bad hfiles.
- checkTasks() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
tells Coordination that it should check for new tasks
- checkTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- checkTaskStillAvailable(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Check that the task is still there
- checkTaskStillAvailable(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- checkTimestamps(Map<byte[], List<Cell>>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Check the collection of families for valid timestamps
- checkUnDeletedQueues() - 类 中的方法org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- checkValue(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Checks the given value for validity.
- checkVersion(FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- checkVersion(FileSystem, Path, boolean, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- checkVersions(Cell, long, byte, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Keeps track of the number of versions for the columns asked for.
- checkVersions(Cell, long, byte, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- checkVersions(Cell, long, byte, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- checkVersions(Cell, long, byte, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Keeps track of the number of versions for the columns asked for.
- checkZk() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
Try to create a ZooKeeper connection.
- chore() - 类 中的方法org.apache.hadoop.hbase.HealthCheckChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.ExpiredMobFileCleanerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.MobCompactionChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.quotas.FileSystemUtilizationChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaObserverChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.quotas.SnapshotQuotaObserverChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaRefresherChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
The task to execute on each scheduled execution of the Chore
- choreForTesting() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- ChoreService - org.apache.hadoop.hbase中的类
-
ChoreService is a service that can be used to schedule instances of
ScheduledChore to run
periodically while sharing threads.
- ChoreService(String) - 类 的构造器org.apache.hadoop.hbase.ChoreService
-
- ChoreService(String, boolean) - 类 的构造器org.apache.hadoop.hbase.ChoreService
-
- ChoreService(String, int, boolean) - 类 的构造器org.apache.hadoop.hbase.ChoreService
-
- Chunk - org.apache.hadoop.hbase.regionserver中的类
-
A chunk of memory out of which allocations are sliced.
- Chunk(int, int) - 类 的构造器org.apache.hadoop.hbase.regionserver.Chunk
-
Create an uninitialized chunk.
- Chunk(int, int, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.Chunk
-
Create an uninitialized chunk.
- CHUNK_POOL_INITIALSIZE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- CHUNK_POOL_MAXSIZE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- CHUNK_SIZE_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- CHUNK_SIZE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- ChunkCreator - org.apache.hadoop.hbase.regionserver中的类
-
Does the management of memstoreLAB chunk creations.
- ChunkCreator.ChunkType - org.apache.hadoop.hbase.regionserver中的枚举
-
Types of chunks, based on their sizes
- Cipher - org.apache.hadoop.hbase.io.crypto中的类
-
A common interface for a cryptographic algorithm.
- Cipher(CipherProvider) - 类 的构造器org.apache.hadoop.hbase.io.crypto.Cipher
-
- CIPHER_AES - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default cipher for encryption
- CIPHER_CLASSES_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- CIPHER_JCE_PROVIDER_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- CIPHER_MODE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.aes.AES
-
- CIPHER_MODE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- CIPHER_PROVIDER_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.aes.AES
-
- CipherProvider - org.apache.hadoop.hbase.io.crypto中的接口
-
An CipherProvider contributes support for various cryptographic
Ciphers.
- claimQueue(ServerName, String, ServerName) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Change ownership for the queue identified by queueId and belongs to a dead region server.
- Classes - org.apache.hadoop.hbase.util中的类
-
Utilities for class manipulation.
- Classes() - 类 的构造器org.apache.hadoop.hbase.util.Classes
-
- classifyExs(List<Throwable>) - 异常错误 中的静态方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- ClassLoaderBase - org.apache.hadoop.hbase.util中的类
-
Base class loader that defines couple shared constants used by sub-classes.
- ClassLoaderBase(ClassLoader) - 类 的构造器org.apache.hadoop.hbase.util.ClassLoaderBase
-
Creates a DynamicClassLoader that can load classes dynamically
from jar files under a specific folder.
- CLASSNAME_KEY - 接口 中的静态变量org.apache.hadoop.hbase.client.BufferedMutator
-
Key to use setting non-default BufferedMutator implementation in Configuration.
- ClassSize - org.apache.hadoop.hbase.util中的类
-
Class for determining the "size" of a class, an attempt to calculate the
actual bytes that an object of this class will occupy in memory
The core of this class is taken from the Derby project
- ClassSize() - 类 的构造器org.apache.hadoop.hbase.util.ClassSize
-
- cleanAllPreviousInstances(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- cleanerChoreSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Enable/Disable the cleaner chore.
- cleanerChoreSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Turn the cleaner chore on/off.
- cleanerChoreSwitch(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cleanExpiredMobFiles(String, ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.mob.ExpiredMobFileCleaner
-
Cleans the MOB files when they're expired and their min versions are 0.
- cleanExpiredMobFiles(FileSystem, Configuration, TableName, ColumnFamilyDescriptor, CacheConfig, long) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Cleans the expired mob files.
- cleanMergeQualifier(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
Checks if the specified region has merge qualifiers, if so, try to clean
them
- cleanMovedRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Remove the expired entries from the moved regions list.
- cleanPreviousInstance(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
A dead server that comes back alive has a different start code.
- cleanReplicationBarrier() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- cleanup() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Do the necessary cleanup after the call if needed.
- cleanup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- cleanup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- cleanup(Mapper<WALKey, WALEdit, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer.WALMapper
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.MobCompactionChore
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
Override to run cleanup tasks when the Chore encounters an error and must stop running
- cleanupBulkLoad(Connection, String) - 类 中的方法org.apache.hadoop.hbase.client.SecureBulkLoadClient
-
- cleanupBulkLoad(RpcController, ClientProtos.CleanupBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- cleanupBulkLoad(HRegion, ClientProtos.CleanupBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.SecureBulkLoadManager
-
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- cleanupMergedRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Remove merged region
- clear() - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
Remove all internal elements from builder.
- clear() - 类 中的方法org.apache.hadoop.hbase.client.BatchScanResultCache
-
- clear() - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
These methods are unsupported, and no code using CompoundConfiguration depend upon them.
- clear() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- clear() - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- clear() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- clear() - 类 中的方法org.apache.hadoop.hbase.io.TagCompressionContext
-
- clear() - 接口 中的方法org.apache.hadoop.hbase.io.util.Dictionary
-
Flushes the dictionary, empties all values.
- clear() - 类 中的方法org.apache.hadoop.hbase.io.util.LRUDictionary
-
- clear() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- clear() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- clear() - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- clear() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- clear() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- clear() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- clear() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- clear() - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- clear() - 接口 中的方法org.apache.hadoop.hbase.util.PoolMap.Pool
-
- clear() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- clear(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
Delete the master znode if its content (ServerName string) is the same
as the one in the znode file.
- clearBlockCache(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Clear all the blocks corresponding to this table from BlockCache.
- clearBlockCache(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Clear all the blocks corresponding to this table from BlockCache.
- clearBlockCache(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Clear all the blocks corresponding to this table from BlockCache.
- clearCache() - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete all cached entries.
- clearCache(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete all cached entries of a server.
- clearCache(TableName) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete all cached entries of a table.
- clearCache(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete a cached location, no matter what it is.
- clearCache(TableName, byte[], int) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete a cached location with specific replicaId.
- clearCache(TableName, byte[], ServerName) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Delete a cached location for a table, row and server
- clearCache(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Deletes the cached location of the region if necessary, based on some error from source.
- clearCache(HRegionLocation) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
- clearCache() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Clears the cache.
- clearCache() - 类 中的静态方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
- clearCaches(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Clear any caches that pertain to server name sn.
- clearCompactedFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Clears all the compacted files and returns them.
- clearCompactedFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- clearCompactionQueues(ServerName, Set<String>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Clear compacting queues on a regionserver.
- clearCompactionQueues(ServerName, Set<String>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Clear compacting queues on a region server.
- clearCompactionQueues(ServerName, Set<String>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- clearCompactionQueues(RpcController, AdminProtos.ClearCompactionQueuesRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- clearCurrentRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- clearDeadServers(List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Clear dead region servers from master.
- clearDeadServers(List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Clear dead region servers from master.
- clearDeadServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- clearDeadServers(RpcController, MasterProtos.ClearDeadServersRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- clearDeadServers(RpcController, MasterProtos.ClearDeadServersRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- clearFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Clears all the files currently in use and returns them.
- clearFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- clearHashCache() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- clearLongCompactionsQueue() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- clearRegionBlockCache(Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- clearRegionBlockCache(RpcController, AdminProtos.ClearRegionBlockCacheRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- clearRegionCache() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Allows flushing the region cache.
- clearRegionCache(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Allows flushing the region cache of all locations that pertain to
tableName
- clearRegionCache() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
Explicitly clears the region cache to fetch the latest value from META.
- clearRegionReplayEditsSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Clear a region from replayEditsPerRegion.
- clearReplicationScope() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- clearShortCompactionsQueue() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- clearSnapshot(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
The passed snapshot was successfully persisted; it can be let go.
- clearSnapshot(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Clears the current snapshot of the Memstore.
- ClickjackingPreventionFilter - org.apache.hadoop.hbase.http中的类
-
- ClickjackingPreventionFilter() - 类 的构造器org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- Client - org.apache.hadoop.hbase.rest.client中的类
-
A wrapper around HttpClient which provides some useful function and
semantics for interacting with the REST gateway.
- Client() - 类 的构造器org.apache.hadoop.hbase.rest.client.Client
-
Default Constructor
- Client(Cluster) - 类 的构造器org.apache.hadoop.hbase.rest.client.Client
-
Constructor
- Client(Cluster, boolean) - 类 的构造器org.apache.hadoop.hbase.rest.client.Client
-
Constructor
- CLIENT_NONCES_ENABLED_KEY - 接口 中的静态变量org.apache.hadoop.hbase.client.NonceGenerator
-
- CLIENT_PORT_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The ZK client port key in the ZK properties map.
- CLIENT_SIDE_METRICS_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.MetricsConnection
-
Set this key to true to enable metrics collection of client requests.
- CLIENT_ZOOKEEPER_CLIENT_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Client port of ZooKeeper for client to locate meta
- CLIENT_ZOOKEEPER_OBSERVER_MODE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Indicate whether the client ZK are observer nodes of the server ZK
- CLIENT_ZOOKEEPER_QUORUM - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Name of ZooKeeper quorum configuration parameter for client to locate meta.
- ClientAsyncPrefetchScanner - org.apache.hadoop.hbase.client中的类
-
ClientAsyncPrefetchScanner implements async scanner behaviour.
- ClientAsyncPrefetchScanner(Configuration, Scan, TableName, ClusterConnection, RpcRetryingCallerFactory, RpcControllerFactory, ExecutorService, int) - 类 的构造器org.apache.hadoop.hbase.client.ClientAsyncPrefetchScanner
-
- ClientBackoffPolicy - org.apache.hadoop.hbase.client.backoff中的接口
-
Configurable policy for the amount of time a client should wait for a new request to the
server when given the server load statistics.
- ClientBackoffPolicyFactory - org.apache.hadoop.hbase.client.backoff中的类
-
- ClientBackoffPolicyFactory.NoBackoffPolicy - org.apache.hadoop.hbase.client.backoff中的类
-
Default backoff policy that doesn't create any backoff for the client, regardless of load
- clientChannelClass() - 类 中的方法org.apache.hadoop.hbase.util.NettyEventLoopGroupConfig
-
- ClientCoprocessorRpcController - org.apache.hadoop.hbase.client中的类
-
Client side rpc controller for coprocessor implementation.
- ClientCoprocessorRpcController() - 类 的构造器org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- ClientExceptionsUtil - org.apache.hadoop.hbase.exceptions中的类
-
- ClientScanner - org.apache.hadoop.hbase.client中的类
-
Implements the scanner interface for the HBase client.
- ClientScanner(Configuration, Scan, TableName, ClusterConnection, RpcRetryingCallerFactory, RpcControllerFactory, ExecutorService, int) - 类 的构造器org.apache.hadoop.hbase.client.ClientScanner
-
Create a new ClientScanner for the specified table Note that the passed
Scan's start
row maybe changed changed.
- ClientServiceCallable<T> - org.apache.hadoop.hbase.client中的类
-
A RegionServerCallable set to use the Client protocol.
- ClientServiceCallable(Connection, TableName, byte[], RpcController, int) - 类 的构造器org.apache.hadoop.hbase.client.ClientServiceCallable
-
- ClientSideRegionScanner - org.apache.hadoop.hbase.client中的类
-
A client scanner for a region opened for read-only on the client side.
- ClientSideRegionScanner(Configuration, FileSystem, Path, TableDescriptor, RegionInfo, Scan, ScanMetrics) - 类 的构造器org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- ClientSimpleScanner - org.apache.hadoop.hbase.client中的类
-
ClientSimpleScanner implements a sync scanner behaviour.
- ClientSimpleScanner(Configuration, Scan, TableName, ClusterConnection, RpcRetryingCallerFactory, RpcControllerFactory, ExecutorService, int) - 类 的构造器org.apache.hadoop.hbase.client.ClientSimpleScanner
-
- ClientSnapshotDescriptionUtils - org.apache.hadoop.hbase.snapshot中的类
-
Class to help with dealing with a snapshot description on the client side.
- ClientSnapshotDescriptionUtils() - 类 的构造器org.apache.hadoop.hbase.snapshot.ClientSnapshotDescriptionUtils
-
- ClientUtil - org.apache.hadoop.hbase.client中的类
-
- ClientUtil() - 类 的构造器org.apache.hadoop.hbase.client.ClientUtil
-
- ClockOutOfSyncException - org.apache.hadoop.hbase中的异常错误
-
This exception is thrown by the master when a region server clock skew is
too high.
- ClockOutOfSyncException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ClockOutOfSyncException
-
- clone() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- clone() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
Implement Cloneable interface
- clone() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- clone() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
Clones a KeyValue.
- clone() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- clone() - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
- cloneFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- cloneQualifier(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- cloneRegionInfo(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Create a new
RegionInfo from the snapshot region info.
- cloneRegionInfo(TableName, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- cloneRow(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
get individual arrays for tests
- cloneSnapshot(byte[], TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new table by cloning the snapshot content.
- cloneSnapshot(String, TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new table by cloning the snapshot content.
- cloneSnapshot(String, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new table by cloning the snapshot content.
- cloneSnapshot(String, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Create a new table by cloning the snapshot content.
- cloneSnapshot(byte[], TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cloneSnapshot(String, TableName, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cloneSnapshot(String, TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cloneSnapshotAsync(String, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new table by cloning the snapshot content, but does not block
and wait for it to be completely cloned.
- cloneSnapshotAsync(String, TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cloneTableSchema(TableName, TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new table by cloning the existent table schema.
- cloneTableSchema(TableName, TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Create a new table by cloning the existent table schema.
- cloneTableSchema(TableName, TableName, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- cloneTags(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- cloneTags(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- cloneTags() - 接口 中的方法org.apache.hadoop.hbase.RawCell
-
Allows cloning the tags in the cell to a new byte[]
- cloneValue(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- cloneValue(Tag) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Returns tag value in a new byte array.
- close() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- close() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
- close() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.ClientAsyncPrefetchScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- close() - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.example.RefreshHFilesClient
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
- close() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- close() - 接口 中的方法org.apache.hadoop.hbase.client.ResultScanner
-
Closes the scanner and releases any resources it has allocated
- close() - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- close() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Releases any resources held or pending changes in internal buffers.
- close() - 类 中的方法org.apache.hadoop.hbase.client.TableSnapshotScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- close() - 接口 中的方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutput
-
Close the file.
- close() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutput
-
End the current block and complete file at namenode.
- close() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.WrapperAsyncFSOutput
-
- close() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- close() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferWriterOutputStream
-
- close() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
Releases the compressor this writer uses to compress blocks into the
compressor pool.
- close() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
Releases the resources used.
- close() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Close stream(s) if necessary.
- close() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
- close(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Close method with optional evictOnClose
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- close() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Close this HFile scanner and do necessary cleanup.
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- close() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcClient
-
Stop all threads related to this client.
- close(Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization.CellDeserializer
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization.CellSerializer
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueDeserializer
-
已过时。
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueSerializer
-
已过时。
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat.MultiTableRecordWriter
-
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat.TableRecordWriter
-
Closes the writer, in this case flush table commits.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Closes the split.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Closes the split.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- close() - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- close() - 类 中的方法org.apache.hadoop.hbase.master.MasterMobCompactionThread
-
Closes the MasterMobCompactionThread.
- close() - 类 中的方法org.apache.hadoop.hbase.mob.CachedMobFile
-
Decreases the reference of the underlying reader for the mob file.
- close() - 类 中的方法org.apache.hadoop.hbase.mob.MobFile
-
Closes the underlying reader, but do no evict blocks belonging to this file.
- close() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- close() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Cleanup method on operation completion
- close() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaRetriever
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
Closing a segment before it is being discarded
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Close down this HRegion.
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Close down this HRegion.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Close all the readers We don't need to worry about subsequent requests because the Region holds
a write lock that will prevent any more reads or writes.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.InternalScanner
-
Closes the scanner and releases any resources it has allocated
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Close the KeyValue scanner.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Shut down this Leases instance.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactorSegmentsIterator
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Close instance since it won't be used any more, try to put the chunks back to pool
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
Close this instance since it won't be used any more, try to put the chunks
back to pool
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreMergerSegmentsIterator
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSegmentsIterator
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
Close the region's metrics as this region is closing.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSourceImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
Close the table's metrics as all the region are closing.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
Closing a segment before it is being discarded
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Close the KeyValue scanner.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- close() - 类 中的方法org.apache.hadoop.hbase.rest.ResultGenerator
-
- close() - 类 中的方法org.apache.hadoop.hbase.rest.RowResultGenerator
-
- close() - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- close(ChannelHandlerContext, ChannelPromise) - 类 中的方法org.apache.hadoop.hbase.security.CryptoAESWrapHandler
-
- close(ChannelHandlerContext, ChannelPromise) - 类 中的方法org.apache.hadoop.hbase.security.SaslWrapHandler
-
- close() - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.Base64.Base64OutputStream
-
Flushes and closes (I think, in the superclass) the stream.
- close() - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.MultiHConnection
-
Close the open connections and shutdown the batchpool
- close() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- close() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- close() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Caller no longer needs any edits from this WAL.
- close() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Shutdown all WALs and clean up any underlying storage.
- close() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
shutdown utstanding WALs and clean up any persisted state.
- close() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- close() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- close() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Close the connection to ZooKeeper.
- closeAfterLeasesExpire() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Shuts down this lease instance when all outstanding leases expire.
- closeAllRegions(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Closes all regions.
- closeAndArchiveCompactedFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Closes and archives the compacted files under this store
- closeAndCleanCompleted - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- closeAndOfflineRegionForSplitOrMerge(List<String>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Close and offline the region for split or merge
- closeConnection(SimpleServerRpcConnection) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- closed - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- closed - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- closed - 类 中的变量org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- closed - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- closeFile(MobFile) - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Closes a mob file.
- closeInternal() - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- closeInternal() - 类 中的方法org.apache.hadoop.hbase.ipc.BlockingRpcClient
-
- closeInternal() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcClient
-
- closeOutputStream - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
True if we opened the outputStream (and so will close it).
- closeRegion(String, String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- closeRegion(byte[], String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- closeRegion(ServerName, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- closeRegion(String, String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
已过时。
- closeRegion(byte[], String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
已过时。
- closeRegion(ServerName, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
已过时。
- closeRegion(String, boolean, ServerName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Close asynchronously a region, can be called from the master or internally by the regionserver
when stopping.
- closeRegion(RpcController, AdminProtos.CloseRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Close a region on the region server.
- closeRegion(RpcController, AdminProtos.AdminService.BlockingInterface, ServerName, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to close a region given a region name
using admin protocol.
- closeRegionOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- closeRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- closeRegionOperation() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Closes the region operation lock.
- closeRegionOperation(Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Closes the region operation lock.
- closeRegionSilentlyAndWait(ClusterConnection, ServerName, RegionInfo, long) - 类 中的静态方法org.apache.hadoop.hbase.master.ServerManager
-
Contacts a region server and waits up to timeout ms
to close the region.
- closeRegionSilentlyAndWait(Connection, ServerName, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
Contacts a region server and waits up to hbase.hbck.close.timeout ms
(default 120s) to close the region.
- closeRegionWithEncodedRegionName(String, String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- closeRegionWithEncodedRegionName(String, String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
已过时。
- closeStoreFile(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- closeTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- closeTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- Cluster - org.apache.hadoop.hbase.rest.client中的类
-
A list of 'host:port' addresses of HTTP servers operating as a single
entity, for example multiple redundant web service gateways.
- Cluster() - 类 的构造器org.apache.hadoop.hbase.rest.client.Cluster
-
Constructor
- Cluster(List<String>) - 类 的构造器org.apache.hadoop.hbase.rest.client.Cluster
-
Constructor
- CLUSTER_DISTRIBUTED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Cluster is in distributed mode or not
- CLUSTER_ID_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for cluster ID
- CLUSTER_ID_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- CLUSTER_ID_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CLUSTER_ID_FILE_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
name of the file for unique cluster ID
- CLUSTER_ID_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- CLUSTER_ID_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CLUSTER_IS_DISTRIBUTED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- CLUSTER_IS_LOCAL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Cluster is standalone or pseudo-distributed
- CLUSTER_REQUESTS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- ClusterConnection - org.apache.hadoop.hbase.client中的接口
-
Internal methods on Connection that should not be used by user code.
- clusterConnection - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Cluster connection to be shared by services.
- ClusterId - org.apache.hadoop.hbase中的类
-
The identifier for this cluster.
- ClusterId() - 类 的构造器org.apache.hadoop.hbase.ClusterId
-
New ClusterID.
- ClusterId(String) - 类 的构造器org.apache.hadoop.hbase.ClusterId
-
- clusterId - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- clusterId - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Unique identifier for the cluster we are a part of.
- clusterIdZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- ClusterMarkingEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Filters out entries with our peerClusterId (i.e. already replicated)
and marks all other entries with our clusterID
- ClusterMarkingEntryFilter(UUID, UUID, ReplicationEndpoint) - 类 的构造器org.apache.hadoop.hbase.replication.ClusterMarkingEntryFilter
-
- ClusterMetrics - org.apache.hadoop.hbase中的接口
-
Metrics information on the HBase cluster.
- ClusterMetrics.Option - org.apache.hadoop.hbase中的枚举
-
Kinds of ClusterMetrics
- ClusterMetricsBuilder - org.apache.hadoop.hbase中的类
-
- ClusterSchema - org.apache.hadoop.hbase.master中的接口
-
View and edit the current cluster schema.
- ClusterSchemaException - org.apache.hadoop.hbase.master中的异常错误
-
- ClusterSchemaException(String) - 异常错误 的构造器org.apache.hadoop.hbase.master.ClusterSchemaException
-
- ClusterSchemaException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.master.ClusterSchemaException
-
- ClusterSchemaException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.master.ClusterSchemaException
-
- ClusterSchemaService - org.apache.hadoop.hbase.master中的接口
-
Mixes in ClusterSchema and Service
- clusterStateZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- ClusterStatus - org.apache.hadoop.hbase中的类
-
- ClusterStatus(String, String, Map<ServerName, ServerLoad>, Collection<ServerName>, ServerName, Collection<ServerName>, List<RegionState>, String[], Boolean, int) - 类 的构造器org.apache.hadoop.hbase.ClusterStatus
-
- ClusterStatus(ClusterMetrics) - 类 的构造器org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- ClusterStatusPublisher - org.apache.hadoop.hbase.master中的类
-
Class to publish the cluster status to the client.
- ClusterStatusPublisher(HMaster, Configuration, Class<? extends ClusterStatusPublisher.Publisher>) - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- ClusterStatusPublisher() - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- ClusterStatusPublisher.MulticastPublisher - org.apache.hadoop.hbase.master中的类
-
- ClusterStatusPublisher.Publisher - org.apache.hadoop.hbase.master中的接口
-
- clusterStatusTracker - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ClusterStatusTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracker on cluster settings up in zookeeper.
- ClusterStatusTracker(ZKWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Creates a cluster status tracker.
- cmdLineArgs - 类 中的变量org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- cmp(int) - 枚举 中的方法org.apache.hadoop.hbase.util.Order
-
Returns the adjusted trichotomous value according to the ordering imposed by this
Order.
- code - 枚举 中的变量org.apache.hadoop.hbase.security.AuthMethod
-
The code for this method.
- codec - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- codeToType(byte) - 枚举 中的静态方法org.apache.hadoop.hbase.KeyValue.Type
-
Cannot rely on enum ordinals .
- codeToType(byte) - 枚举 中的静态方法org.apache.hadoop.hbase.util.ChecksumType
-
Cannot rely on enum ordinals .
- colFamTimeRangeMap - 类 中的变量org.apache.hadoop.hbase.client.Query
-
- CollectionBackedScanner - org.apache.hadoop.hbase.util中的类
-
Utility scanner that wraps a sortable collection and serves as a KeyValueScanner.
- CollectionBackedScanner(SortedSet<Cell>) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(SortedSet<Cell>, CellComparator) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(List<Cell>) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(List<Cell>, CellComparator) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(CellComparator, Cell...) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionUtils - org.apache.hadoop.hbase.util中的类
-
Utility methods for dealing with Collections, including treating null collections as empty.
- CollectionUtils() - 类 的构造器org.apache.hadoop.hbase.util.CollectionUtils
-
- CollectionUtils.IOExceptionSupplier<V> - org.apache.hadoop.hbase.util中的接口
-
A supplier that throws IOException when get.
- COLON - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for colon (:)
- column - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- COLUMN_FAMILY_DELIM_ARRAY - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- COLUMN_FAMILY_DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
Colon character in UTF-8
- COLUMN_LIST - 类 中的静态变量org.apache.hadoop.hbase.mapred.TableInputFormat
-
space delimited list of columns
- ColumnCountGetFilter - org.apache.hadoop.hbase.filter中的类
-
Simple filter that returns first N columns on row only.
- ColumnCountGetFilter(int) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- columnFamily - 类 中的变量org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- columnFamily - 类 中的变量org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- ColumnFamilyDescriptor - org.apache.hadoop.hbase.client中的接口
-
An ColumnFamilyDescriptor contains information about a column family such as the
number of versions, compression settings, etc.
- ColumnFamilyDescriptorBuilder - org.apache.hadoop.hbase.client中的类
-
- ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor - org.apache.hadoop.hbase.client中的类
-
An ModifyableFamilyDescriptor contains information about a column family such as the
number of versions, compression settings, etc.
- ColumnInterpreter<T,S,P extends com.google.protobuf.Message,Q extends com.google.protobuf.Message,R extends com.google.protobuf.Message> - org.apache.hadoop.hbase.coprocessor中的类
-
Defines how value for specific column is interpreted and provides utility
methods like compare, add, multiply etc for them.
- ColumnInterpreter() - 类 的构造器org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- ColumnPaginationFilter - org.apache.hadoop.hbase.filter中的类
-
A filter, based on the ColumnCountGetFilter, takes two arguments: limit and offset.
- ColumnPaginationFilter(int, int) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
Initializes filter with an integer offset and limit.
- ColumnPaginationFilter(int, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
Initializes filter with a string/bookmark based offset and limit.
- ColumnPrefixFilter - org.apache.hadoop.hbase.filter中的类
-
This filter is used for selecting only those keys with columns that matches
a particular prefix.
- ColumnPrefixFilter(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- columnQualifier - 类 中的变量org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- columnQualifier - 类 中的变量org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- ColumnRangeFilter - org.apache.hadoop.hbase.filter中的类
-
This filter is used for selecting only those keys with columns that are
between minColumn to maxColumn.
- ColumnRangeFilter(byte[], boolean, byte[], boolean) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
Create a filter to select those keys with columns that are between minColumn
and maxColumn.
- columns - 类 中的变量org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- columns - 类 中的变量org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
The grouping columns.
- columns - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Keeps track of columns and versions
- COLUMNS_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- ColumnTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的接口
-
Implementing classes of this interface will be used for the tracking
and enforcement of columns and numbers of versions and timeToLive during
the course of a Get or Scan operation.
- ColumnValueFilter - org.apache.hadoop.hbase.filter中的类
-
- ColumnValueFilter(byte[], byte[], CompareOperator, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- ColumnValueFilter(byte[], byte[], CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- com.google.protobuf - 程序包 com.google.protobuf
-
- CombinedBlockCache - org.apache.hadoop.hbase.io.hfile中的类
-
CombinedBlockCache is an abstraction layer that combines
LruBlockCache and
BucketCache.
- CombinedBlockCache(LruBlockCache, BlockCache) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- CombinedBlockCache.CombinedCacheStats - org.apache.hadoop.hbase.io.hfile中的类
-
- combinedCacheStats - 类 中的变量org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- combineTableNameSuffix(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- COMMA - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for a comma
- commitDaughterRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Commit a daughter region, moving it from the split temporary directory
to the proper location in the filesystem.
- commitFile(Configuration, FileSystem, Path, Path, CacheConfig) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Commits the mob file.
- commitFile(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Commits the mob file.
- commitMergedRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Commit a merged region, moving it from the merges temporary directory to
the proper location in the filesystem.
- commitStoreFile(String, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Move the file from a build/temp location to the main family store directory.
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- commitWriters(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Commit all writers.
- CommonFSUtils - org.apache.hadoop.hbase.util中的类
-
Utility methods for interacting with the underlying file system.
- CommonFSUtils() - 类 的构造器org.apache.hadoop.hbase.util.CommonFSUtils
-
- CommonFSUtils.StreamLacksCapabilityException - org.apache.hadoop.hbase.util中的异常错误
-
Helper exception for those cases where the place where we need to check a stream capability
is not where we have the needed context to explain the impact and mitigation for a lack.
- CommonsCryptoAES - org.apache.hadoop.hbase.io.crypto.aes中的类
-
- CommonsCryptoAES(CipherProvider) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- CommonsCryptoAESDecryptor - org.apache.hadoop.hbase.io.crypto.aes中的类
-
- CommonsCryptoAESDecryptor(String, Properties) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- CommonsCryptoAESEncryptor - org.apache.hadoop.hbase.io.crypto.aes中的类
-
- CommonsCryptoAESEncryptor(String, Properties, SecureRandom) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- compact(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact a table.
- compact(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact a column family within a table.
- compact(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact a table.
- compact(TableName, byte[], CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact a column family within a table.
- compact(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact a table.
- compact(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact a column family within a table.
- compact(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact a table.
- compact(TableName, byte[], CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact a column family within a table.
- compact(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Compact a table.
- compact(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Compact a column family within a table.
- compact(TableName, byte[], CompactType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Compact a column family within a table.
- compact(TableName, CompactType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Compact a table.
- compact() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
Compacts the mob files for the current column family.
- compact(boolean) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
Compacts the mob files by compaction type for the current column family.
- compact(List<FileStatus>, boolean) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
Compacts the candidate mob files.
- compact(List<FileStatus>, boolean) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
- compact(CompactionRequestImpl, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.mob.DefaultMobStoreCompactor
-
- compact(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Synchronously compact all stores in the region.
- compact(CompactionContext, HStore, ThroughputController) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Called by compaction thread and after region is opened to compact the
HStores if necessary.
- compact(CompactionContext, HStore, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- compact(CompactionContext, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Compact the StoreFiles.
- compact(VersionedSegmentsList, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- compactAllRegions() - 类 中的方法org.apache.hadoop.hbase.util.compaction.MajorCompactor
-
- compactBloom() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- compactBloom() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- compactBloom() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Compact the Bloom filter before writing metadata & data to disk.
- COMPACTCHECKER_INTERVAL_MULTIPLIER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- compactDelFiles(PartitionedMobCompactionRequest, List<Path>) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
Compacts the del files in batches which avoids opening too many files.
- COMPACTED_CELLS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_CELLS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_CELLS_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_CELLS_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_INPUT_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_INPUT_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_OUTPUT_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTED_OUTPUT_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- CompactedHFilesDischargeHandler - org.apache.hadoop.hbase.regionserver中的类
-
Event handler that handles the removal and archival of the compacted hfiles
- CompactedHFilesDischargeHandler(Server, EventType, HStore) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischargeHandler
-
- CompactedHFilesDischarger - org.apache.hadoop.hbase.regionserver中的类
-
A chore service that periodically cleans up the compacted files when there are no active readers
using those compacted files and also helps in clearing the block cache of these compacted
file entries.
- CompactedHFilesDischarger(int, Stoppable, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- CompactedHFilesDischarger(int, Stoppable, RegionServerServices, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- COMPACTING_MEMSTORE_THRESHOLD_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- COMPACTING_MEMSTORE_THRESHOLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- COMPACTING_MEMSTORE_TYPE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- COMPACTING_MEMSTORE_TYPE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- CompactingMemStore - org.apache.hadoop.hbase.regionserver中的类
-
A memstore implementation which supports in-memory compaction.
- CompactingMemStore(Configuration, CellComparator, HStore, RegionServicesForStores, MemoryCompactionPolicy) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- CompactingMemStore.IndexType - org.apache.hadoop.hbase.regionserver中的枚举
-
Types of indexes (part of immutable segments) to be used after flattening,
compaction, or merge are applied.
- COMPACTION - 类 中的静态变量org.apache.hadoop.hbase.wal.WALEdit
-
- COMPACTION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Used by HBase Shell interface to access this metadata
attribute which denotes if the table is compaction enabled.
- COMPACTION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- COMPACTION_INPUT_FILE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_INPUT_FILE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_INPUT_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_INPUT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_KV_MAX - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for the maximum batch of KVs to be used in flushes and compactions
- COMPACTION_KV_MAX_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- COMPACTION_OUTPUT_FILE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_OUTPUT_FILE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_OUTPUT_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_OUTPUT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_QUEUE_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_QUEUE_LENGTH_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- COMPACTION_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- compactionBatchSize - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
The number of files compacted in a batch
- CompactionDelPartition(PartitionedMobCompactionRequest.CompactionDelPartitionId) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartition
-
- CompactionDelPartitionId() - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- CompactionDelPartitionId(byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- compactionKVMax - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
- CompactionPartition(PartitionedMobCompactionRequest.CompactionPartitionId) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- CompactionPartitionId() - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- CompactionPartitionId(String, String) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- compactionPartitions - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest
-
- CompactionPipeline - org.apache.hadoop.hbase.regionserver中的类
-
- CompactionPipeline(RegionServicesForStores) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- compactionPolicy - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- COMPACTIONS_COMPLETED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COMPACTIONS_COMPLETED_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COMPACTIONS_FAILED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COMPACTIONS_FAILED_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COMPACTIONS_QUEUED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COMPACTIONS_QUEUED_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- CompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for compaction.
- CompactionScanQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- CompactionState - org.apache.hadoop.hbase.client中的枚举
-
POJO representing the compaction state
- CompactionThroughputControllerFactory - org.apache.hadoop.hbase.regionserver.throttle中的类
-
- CompactionTool - org.apache.hadoop.hbase.regionserver中的类
-
- CompactionTool() - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactionTool
-
- compactMobFiles(PartitionedMobCompactionRequest) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
Compacts the selected small mob files and all the del files.
- compactor - 类 中的变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- compactor - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- compactRecentForTestingAssumingDefaultPolicy(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This method tries to compact N recent files for testing.
- compactRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact an individual region.
- compactRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact a column family within a region.
- compactRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact an individual region.
- compactRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact a column family within a region.
- compactRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- compactRegion(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Compact a column family within a region.
- compactRegion(RpcController, AdminProtos.CompactRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Compact a region on the master.
- compactRegion(RpcController, AdminProtos.CompactRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Compact a region on the region server.
- compactRegionServer(ServerName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- compactRegionServer(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Compact all regions on the region server.
- compactRegionServer(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact all regions on the region server.
- compactRegionServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- CompactSplit - org.apache.hadoop.hbase.regionserver中的类
-
Compact region on request and then run split if appropriate
- compactSplitThread - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- compactStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function that compact all the stores synchronously.
- CompactType - org.apache.hadoop.hbase.client中的枚举
-
Currently, there are only two compact types:
NORMAL means do store files compaction;
MOB means do mob files compaction.
- COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.CellComparatorImpl
-
Comparator for plain key/values; i.e. non-catalog table key/values.
- COMPARATOR - 接口 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- COMPARATOR - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
- COMPARATOR - 接口 中的静态变量org.apache.hadoop.hbase.client.Row
-
- COMPARATOR - 接口 中的静态变量org.apache.hadoop.hbase.client.TableDescriptor
-
- comparator - 类 中的变量org.apache.hadoop.hbase.filter.CompareFilter
-
- comparator - 类 中的变量org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- comparator - 类 中的变量org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder.AbstractEncodedSeeker
-
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
Comparator used to compare Bloom filter keys
- comparator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Key comparator.
- Comparator() - 类 的构造器org.apache.hadoop.hbase.io.ImmutableBytesWritable.Comparator
-
constructor
- COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- comparator - 类 中的变量org.apache.hadoop.hbase.util.BloomContext
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- COMPARATOR_IGNORE_REPLICATION - 接口 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- COMPARATOR_IGNORE_REPLICATION - 接口 中的静态变量org.apache.hadoop.hbase.client.TableDescriptor
-
- compare(Object, Object) - 类 中的方法org.apache.hadoop.hbase.BBKVComparator
-
- compare(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Lexographically compares two cells.
- compare(Cell, Cell, boolean) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Compare cells.
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- compare(Cell, Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- compare(Cell, Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl.MetaCellComparator
-
- compare(CellComparator, Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- compare(T, T) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This takes care if either of arguments are null. returns 0 if they are
equal or both are null;
> 0 if l1 > l2 or l1 is not null and l2 is null.
- compare(HDFSBlocksDistribution.HostAndWeight, HDFSBlocksDistribution.HostAndWeight) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight.WeightComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable.Comparator
-
- compare(long) - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
Compare the timestamp to timerange.
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compares the Key of a cell -- with fields being more significant in this order:
rowkey, colfam/qual, timestamp, type, mvcc
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
Compare key portion of a
KeyValue for keys in
hbase:meta
table.
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable.CellWritableComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable.KeyValueWritableComparator
-
- compare(RegionPlan, RegionPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan.RegionPlanComparator
-
- compare(CellComparator, Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Used when a cell needs to be compared with a key byte[] such as cases of finding the index from
the index block, bloom keys from the bloom blocks This byte[] is expected to be serialized in
the KeyValue serialization format If the KeyValue (Cell's) serialization format changes this
method cannot be used.
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- compare(KeyValueScanner, KeyValueScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
Compares two KeyValue
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- compare(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.Bytes.ByteArrayComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.Bytes.ByteArrayComparator
-
- compare(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.Bytes.RowEndKeyComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.Bytes.RowEndKeyComparator
-
- compareAndSetMax(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- compareAndSetMax(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- compareAndSetMax(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- compareAndSetMin(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- compareAndSetMin(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- compareAndSetMin(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- compareCell(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- compareColumns(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
Compares the family and qualifier part of the cell
- compareColumns(Cell, byte[], int, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Compares the cell's column (family and qualifier) with the given byte[]
- compareColumns(byte[], int, int, int, byte[], int, int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareColumns(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareFamilies(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Lexographically compares the families of the two cells
- compareFamilies(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
Compare the families of left and right cell
- compareFamilies(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Compares the cell's family with the given byte[]
- compareFamilies(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareFamily(CompareFilter.CompareOp, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareFamily(CompareOperator, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareFamily(Cell, ByteArrayComparable) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compare cell's column family against given comparator
- CompareFilter - org.apache.hadoop.hbase.filter中的类
-
This is a generic filter to be used to filter by comparison.
- CompareFilter(CompareFilter.CompareOp, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.CompareFilter
-
- CompareFilter(CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.CompareFilter
-
Constructor.
- CompareFilter.CompareOp - org.apache.hadoop.hbase.filter中的枚举
-
- compareFlatKey(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compares left to right assuming that left,loffset,llength and right,roffset,rlength are
full KVs laid out in a flat byte[]s.
- compareFlatKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareIgnoringPrefix(int, byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Overridden
- compareIgnoringPrefix(int, byte[], int, int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.KeyValue.SamePrefixComparator
-
Compare two keys assuming that the first n bytes are the same.
- compareKey(CellComparator, Cell) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
Compare the given key against the current key
- compareKey(CellComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- compareKey(CellComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- compareKey(CellComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- compareKey(Cell, byte[], int, int, byte[], int, int, byte[], int, int, long, byte) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareKey(TNode, Object) - 接口 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlKeyComparator
-
- compareKeyBasedOnColHint(CellComparator, Cell, Cell, int, int, byte[], int, int, long, byte) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Used to compare two cells based on the column hint provided.
- compareKeyForNextColumn(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- compareKeyForNextRow(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- compareKeyIgnoresMvcc(CellComparator, Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compares only the key portion of a cell.
- compareOnlyKeyPortion(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareOnlyKeyPortion(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
- CompareOperator - org.apache.hadoop.hbase中的枚举
-
Generic set of comparison operators.
- compareQualifier(CompareFilter.CompareOp, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareQualifier(CompareOperator, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareQualifier(Cell, ByteArrayComparable) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compare cell's qualifier against given comparator
- compareQualifiers(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Lexographically compares the qualifiers of the two cells
- compareQualifiers(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
Compare the qualifiers part of the left and right cells.
- compareQualifiers(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Compares the cell's qualifier with the given byte[]
- compareResults(Result, Result) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
Does a deep comparison of two Results, down to the byte arrays.
- compareRow(CompareFilter.CompareOp, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareRow(CompareOperator, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareRow(Cell, ByteArrayComparable) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compare cell's row against given comparator
- compareRowKey(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compares the only the user specified portion of a Key.
- compareRowKey(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
Override the row key comparison to parse and compare the meta row key parts.
- compareRows(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Lexographically compares the rows of two cells.
- compareRows(Cell, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Compares the row part of the cell with a simple plain byte[] like the
stopRow in Scan.
- compareRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
Compares the rows of the left and right cell.
- compareRows(Cell, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
Compares the row part of the cell with a simple plain byte[] like the
stopRow in Scan.
- compareRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl.MetaCellComparator
-
- compareRows(Cell, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl.MetaCellComparator
-
- compareRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareRows(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Get the b[],o,l for left and right rowkey portions and compare.
- compareRows(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
- compareRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- compareRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- compareTimestamps(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Compares cell's timestamps in DESCENDING order.
- compareTimestamps(long, long) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Compares cell's timestamps in DESCENDING order.
- compareTimestamps(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- compareTimestamps(long, long) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- compareTimestamps(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
- compareTo(Action) - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- compareTo(ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- compareTo(Row) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- compareTo(Row) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- compareTo(Row) - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- compareTo(Row) - 接口 中的方法org.apache.hadoop.hbase.client.Row
-
- compareTo(Row) - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- compareTo(TableDescriptorBuilder.ModifyableTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Compares the descriptor with another descriptor which is passed as a
parameter.
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BinaryComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BinaryComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BinaryPrefixComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BinaryPrefixComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BitComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.BitComparator
-
- compareTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
Special compareTo method for subclasses, to avoid
copying byte[] unnecessarily.
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
Special compareTo method for subclasses, to avoid copying bytes unnecessarily.
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.LongComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.LongComparator
-
- compareTo(MultiRowRangeFilter.RowRange) - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- compareTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.NullComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.NullComparator
-
- compareTo(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.filter.NullComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.RegexStringComparator
-
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.SubstringComparator
-
- compareTo(HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- compareTo(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- compareTo(HRegionLocation) - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- compareTo(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Compares the descriptor with another descriptor which is passed as a parameter.
- compareTo(LruCachedBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- compareTo(ImmutableBytesWritable) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Define the sort order of the BytesWritable.
- compareTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Compares the bytes in this object to the specified byte array
- compareTo(Delayed) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- compareTo(TableSplit) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- compareTo(Import.CellWritableComparable) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable
-
- compareTo(Import.KeyValueWritableComparable) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- compareTo(TableSplit) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Compares this split against the given one.
- compareTo(RegionPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Compare the region info.
- compareTo(CachedMobFile) - 类 中的方法org.apache.hadoop.hbase.mob.CachedMobFile
-
- compareTo(PartitionedMobCompactionRequest.CompactionDelPartitionId) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- compareTo(Address) - 类 中的方法org.apache.hadoop.hbase.net.Address
-
- compareTo(ByteBuff, int, int, ByteBuff, int, int) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
Compares two ByteBuffs
- compareTo(MetricsRegionSource) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSourceImpl
-
- compareTo(MetricsTableSource) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- compareTo(ServerName) - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- compareTo(Size) - 类 中的方法org.apache.hadoop.hbase.Size
-
- compareTo(TableName) - 类 中的方法org.apache.hadoop.hbase.TableName
-
For performance reasons, the ordering is not lexicographic.
- compareTo(ByteRange) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
Bitwise comparison of each byte in the array.
- compareTo(TNode) - 类 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlNode
-
- compareTo(ByteBuffer, int, int, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- compareTo(byte[], int, int, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- compareTo(ByteBuffer, int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- compareTo(Bytes) - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
Define the sort order of the Bytes.
- compareTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
Compares the bytes in this object to the specified byte array
- compareTo(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- compareTo(byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Lexicographically compare two arrays.
- compareTo(WALKey) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- compareTo(WALSplitter.MutationReplay) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- compareValue(CompareFilter.CompareOp, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareValue(CompareOperator, ByteArrayComparable, Cell) - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- compareValue(Cell, ByteArrayComparable) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compare cell's value against given comparator
- compareVersion(String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
- compareWithoutRow(Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
Lexographically compares the two cells excluding the row part.
- compareWithoutRow(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- CompatibilityFactory - org.apache.hadoop.hbase中的类
-
Class that will create many instances of classes provided by the hbase-hadoop{1|2}-compat jars.
- CompatibilityFactory() - 类 的构造器org.apache.hadoop.hbase.CompatibilityFactory
-
This is a static only class don't let any instance be created.
- CompatibilitySingletonFactory - org.apache.hadoop.hbase中的类
-
Factory for classes supplied by hadoop compatibility modules.
- CompatibilitySingletonFactory() - 类 的构造器org.apache.hadoop.hbase.CompatibilitySingletonFactory
-
This is a static only class don't let anyone create an instance.
- CompatibilitySingletonFactory.SingletonStorage - org.apache.hadoop.hbase中的枚举
-
- complete() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
For all time forward, do not throw an error because the process has completed.
- complete(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- complete(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- completeAndWait(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- completeCacheFlush(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- completeCacheFlush(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Complete the cache flush.
- completeCompaction(Collection<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
It works by processing a compaction that's been written to disk.
- CompletedSnaphotDirectoriesFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils.CompletedSnaphotDirectoriesFilter
-
- completeExceptionally() - 类 中的方法org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- completeSnapshot(SnapshotProtos.SnapshotDescription, Path, Path, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Move the finished snapshot to its final, publicly visible directory - this marks the snapshot
as 'complete'.
- components - 类 中的变量org.apache.hadoop.hbase.util.ConcatenatedLists
-
- CompositeImmutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
The CompositeImmutableSegments is created as a collection of ImmutableSegments and supports
the interface of a single ImmutableSegments.
- CompositeImmutableSegment(CellComparator, List<ImmutableSegment>) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- CompoundBloomFilter - org.apache.hadoop.hbase.io.hfile中的类
-
A Bloom filter implementation built on top of
BloomFilterChunk, encapsulating
a set of fixed-size Bloom filters written out at the time of
HFile generation into the data
block stream, and loaded on demand at query time.
- CompoundBloomFilter(DataInput, HFile.Reader) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
De-serialization for compound Bloom filter metadata.
- CompoundBloomFilterBase - org.apache.hadoop.hbase.io.hfile中的类
-
- CompoundBloomFilterBase() - 类 的构造器org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- CompoundBloomFilterWriter - org.apache.hadoop.hbase.io.hfile中的类
-
Adds methods required for writing a compound Bloom filter to the data
section of an
HFile to the
CompoundBloomFilter class.
- CompoundBloomFilterWriter(int, float, int, int, boolean, CellComparator, BloomType) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- CompoundConfiguration - org.apache.hadoop.hbase中的类
-
Do a shallow merge of multiple KV configuration pools.
- CompoundConfiguration() - 类 的构造器org.apache.hadoop.hbase.CompoundConfiguration
-
Default Constructor.
- compress(byte[], Enum) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec.ByteStringCompressor
-
- COMPRESS_TAGS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- COMPRESS_TAGS - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- compressAndEncrypt(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- compressAndEncrypt(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
- compressFamily(OutputStream, Cell, Dictionary) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- COMPRESSION - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- COMPRESSION - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- compression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- COMPRESSION_COMPACT - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- COMPRESSION_COMPACT - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- compressionByName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- compressionContext - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- CompressionContext - org.apache.hadoop.hbase.regionserver.wal中的类
-
Context that holds the various dictionaries for compression in WAL.
- CompressionContext(Class<? extends Dictionary>, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.CompressionContext
-
- compressionContext - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Compression context to use reading.
- CompressionContext.DictionaryIndex - org.apache.hadoop.hbase.regionserver.wal中的枚举
-
- CompressionTest - org.apache.hadoop.hbase.util中的类
-
Compression validation test.
- CompressionTest() - 类 的构造器org.apache.hadoop.hbase.util.CompressionTest
-
- compressor - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- compressor - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- Compressor - org.apache.hadoop.hbase.regionserver.wal中的类
-
A set of static functions for running our custom WAL compression/decompression.
- Compressor() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.Compressor
-
- compressQualifier(OutputStream, Cell, Dictionary) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- compressRow(OutputStream, Cell, Dictionary) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- compressTags(OutputStream, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.TagCompressionContext
-
Compress tags one by one and writes to the OutputStream.
- compressTags(OutputStream, ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.io.TagCompressionContext
-
Compress tags one by one and writes to the OutputStream.
- compressTags(OutputStream, Cell, TagCompressionContext) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Compresses the tags to the given outputstream using the TagcompressionContext
- computeBitSize(long, double) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
- computeDelta(TableDescriptor, TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.TableDescriptorUtils
-
Compares two
TableDescriptor and indicate which columns were added, deleted,
or modified from oldTD to newTD
- computeFilename(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
This is a convenience method that computes a new filename with a given file-number.
- computeFoldableByteSize(long, int) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
Increases the given byte size of a Bloom filter until it can be folded by
the given factor.
- computeHDFSBlocksDistribution(Configuration, TableDescriptor, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function to compute HDFS block distribution on demand
- computeHDFSBlocksDistribution(Configuration, TableDescriptor, RegionInfo, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function to compute HDFS block distribution on demand
- computeHDFSBlocksDistribution(FileSystem) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Compute the HDFS Block Distribution for this StoreFile
- computeHDFSBlocksDistribution(FileSystem, FileStatus, long, long) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compute HDFS blocks distribution of a given file, or a portion of the file
- computeIfAbsent(ConcurrentMap<K, V>, K, Supplier<V>) - 类 中的静态方法org.apache.hadoop.hbase.util.CollectionUtils
-
In HBASE-16648 we found that ConcurrentHashMap.get is much faster than computeIfAbsent if the
value already exists.
- computeIfAbsent(ConcurrentMap<K, V>, K, Supplier<V>, Runnable) - 类 中的静态方法org.apache.hadoop.hbase.util.CollectionUtils
-
- computeIfAbsentEx(ConcurrentMap<K, V>, K, CollectionUtils.IOExceptionSupplier<V>) - 类 中的静态方法org.apache.hadoop.hbase.util.CollectionUtils
-
In HBASE-16648 we found that ConcurrentHashMap.get is much faster than computeIfAbsent if the
value already exists.
- computeMaxKeys(long, double, int) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
The maximum number of keys we can put into a Bloom filter of a certain
size to get the given error rate, with the given number of hash functions.
- computeNumCallQueues(int, float) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- computeNumCallQueues(int, float) - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- ConcatenatedLists<T> - org.apache.hadoop.hbase.util中的类
-
A collection class that contains multiple sub-lists, which allows us to not copy lists.
- ConcatenatedLists() - 类 的构造器org.apache.hadoop.hbase.util.ConcatenatedLists
-
- ConcatenatedLists.Iterator - org.apache.hadoop.hbase.util中的类
-
- concatTags(byte[], Cell) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
- CONCURRENT_HASHMAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ConcurrentHashMap
- CONCURRENT_HASHMAP_ENTRY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ConcurrentHashMap.Entry
- CONCURRENT_HASHMAP_SEGMENT - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ConcurrentHashMap.Segment
- CONCURRENT_SKIPLISTMAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ConcurrentSkipListMap
- CONCURRENT_SKIPLISTMAP_ENTRY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ConcurrentSkipListMap Entry
- concurrentCallsPerServerHist - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- concurrentVisitReferencedFiles(Configuration, FileSystem, SnapshotManifest, String, SnapshotReferenceUtil.StoreFileVisitor) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
- concurrentVisitReferencedFiles(Configuration, FileSystem, SnapshotManifest, ExecutorService, SnapshotReferenceUtil.StoreFileVisitor) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
- conf - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- conf - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- conf - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- conf - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- conf - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- conf - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- conf - 类 中的变量org.apache.hadoop.hbase.ipc.RpcControllerFactory
-
- conf - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- conf - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- conf - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegion
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
conf object
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- conf - 类 中的变量org.apache.hadoop.hbase.replication.ZKReplicationStorageBase
-
- conf - 类 中的变量org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- conf - 类 中的变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- conf - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- CONF_CONTEXT_ATTRIBUTE - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- CONF_DEST_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Configuration prefix for overrides for the destination filesystem
- CONF_SKIP_TMP - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- CONF_SOURCE_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Configuration prefix for overrides for the source filesystem
- CONFIG - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
Denotes class names that appear in user facing configuration files.
- CONFIGURATION - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- ConfigurationManager - org.apache.hadoop.hbase.conf中的类
-
Maintains the set of all the classes which would like to get notified
when the Configuration is reloaded from the disk in the Online Configuration
Change mechanism, which lets you update certain configuration properties
on-the-fly, without having to restart the cluster.
- ConfigurationManager() - 类 的构造器org.apache.hadoop.hbase.conf.ConfigurationManager
-
- configurationManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Configuration manager is used to register/deregister and notify the configuration observers
when the regionserver is notified that there was a change in the on disk configs.
- ConfigurationObserver - org.apache.hadoop.hbase.conf中的接口
-
Every class that wants to observe changes in Configuration properties,
must implement interface (and also, register itself with the
ConfigurationManager object.
- ConfigurationUtil - org.apache.hadoop.hbase.util中的类
-
Utilities for storing more complex collection types in
Configuration instances.
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormat
-
- configureCfRenaming(Configuration, Map<String, String>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Sets a configuration property with key
Import.CF_RENAME_PROP in conf that tells
the mapper how to rename column families.
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushAllLargeStoresPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushNonSloppyStoresFirstPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushPolicy
-
Upon construction, this method will be called with the region to be governed.
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
Upon construction, this method will be called with the region
to be governed.
- configureIncrementalLoad(Job, Table, RegionLocator) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
Configure a MapReduce Job to perform an incremental load into the given
table.
- configureIncrementalLoad(Job, TableDescriptor, RegionLocator) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
Configure a MapReduce Job to perform an incremental load into the given
table.
- configureIncrementalLoad(Job, List<HFileOutputFormat2.TableInfo>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
- configureIncrementalLoadMap(Job, TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- configureInfoServer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- configureInfoServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- configureJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
Job configuration.
- configureJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SampleUploader
-
Job configuration.
- configureSplitTable(Job, TableName) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets split table in map-reduce job.
- ConfServlet - org.apache.hadoop.hbase.http.conf中的类
-
A servlet to print out the running configuration data.
- ConfServlet() - 类 的构造器org.apache.hadoop.hbase.http.conf.ConfServlet
-
- ConfServlet.BadFormatException - org.apache.hadoop.hbase.http.conf中的异常错误
-
- conn - 类 中的变量org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- connect(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- connect(Configuration) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- connect() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
To repair region consistency, one must call connect() in order to repair
online state.
- connect(Configuration, Watcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates a new connection to ZooKeeper, pulling settings and ensemble config
from the specified configuration object using methods from
ZKConfig.
- connect(Configuration, String, Watcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- connect(Configuration, String, Watcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- Connection - org.apache.hadoop.hbase.client中的接口
-
A cluster connection encapsulating lower level individual connections to actual servers and
a connection to zookeeper.
- connection - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- ConnectionCache - org.apache.hadoop.hbase.util中的类
-
A utility to store user specific HConnections in memory.
- ConnectionCache(Configuration, UserProvider, int, int) - 类 的构造器org.apache.hadoop.hbase.util.ConnectionCache
-
- ConnectionClosingException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Thrown when the client believes that we are trying to communicate to has
been repeatedly unresponsive for a while.
- ConnectionClosingException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.ConnectionClosingException
-
- ConnectionConfiguration - org.apache.hadoop.hbase.client中的类
-
Configuration parameters for the connection.
- ConnectionConfiguration() - 类 的构造器org.apache.hadoop.hbase.client.ConnectionConfiguration
-
Constructor
This is for internal testing purpose (using the default value).
- ConnectionFactory - org.apache.hadoop.hbase.client中的类
-
A non-instantiable class that manages creation of
Connections.
- ConnectionFactory() - 类 的构造器org.apache.hadoop.hbase.client.ConnectionFactory
-
No public c.tors
- connections - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- ConnectionUtils - org.apache.hadoop.hbase.client中的类
-
Utility used by client connections.
- ConnectionUtils.ShortCircuitingClusterConnection - org.apache.hadoop.hbase.client中的类
-
A ClusterConnection that will short-circuit RPC making direct invocations against the
localhost if the invocation target is 'this' server; save on network and protobuf
invocations.
- connectTO - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- Consistency - org.apache.hadoop.hbase.client中的枚举
-
Consistency defines the expected consistency level for an operation.
- consistency - 类 中的变量org.apache.hadoop.hbase.client.Query
-
- consolidate() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- Constants - org.apache.hadoop.hbase.rest中的接口
-
Common constants for org.apache.hadoop.hbase.rest
- ConstantSizeRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
A
RegionSplitPolicy implementation which splits a region
as soon as any of its store files exceeds a maximum configurable
size.
- ConstantSizeRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- constrainHttpMethods(ServletContextHandler, boolean) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServerUtil
-
Add constraints to a Jetty Context to disallow undesirable Http methods.
- constructMaster(Class<? extends HMaster>, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
Utility for constructing an instance of the passed HMaster class.
- constructRegionServer(Class<? extends HRegionServer>, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Utility for constructing an instance of the passed HRegionServer class.
- consume() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
consume one available unit.
- consume(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
consume amount available units, amount could be a negative number
- consumeRead(long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes or add back some read amount to the quota.
- consumeRead(long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- consumeWrite(long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes or add back some write amount to the quota.
- consumeWrite(long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- contains(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- contains(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- contains(byte[], int, int, ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- contains(Cell, ByteBuff, BloomType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- contains(ReplicationPeerConfig, TableName) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationUtils
-
Returns whether we should replicate the given table.
- contains(Cell, ByteBuff, BloomType) - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilter
-
Check if the specified key is contained in the bloom filter.
- contains(byte[], int, int, ByteBuff) - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilter
-
Check if the specified key is contained in the bloom filter.
- contains(byte[], int, int, ByteBuff, int, int, Hash, int) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
- contains(Cell, ByteBuff, int, int, Hash, int, BloomType) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- contains(byte[], byte) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- contains(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- containsBlock(BlockCacheKey) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Whether the cache contains block with specified cacheKey
- containsColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks for existence of a value for the specified column (empty or not).
- containsColumn(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks for existence of a value for the specified column (empty or not).
- containsEmptyColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks if the specified column contains an empty value (a zero-length byte array).
- containsEmptyColumn(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks if the specified column contains an empty value (a zero-length byte array).
- containsIgnoreMvccVersion(Collection<? extends Cell>, Collection<? extends Cell>) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
Checks whether KeyValues from kvCollection2 are contained in kvCollection1.
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- containsNonEmptyColumn(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks if the specified column contains a non-empty value (not a zero-length byte array).
- containsNonEmptyColumn(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Checks if the specified column contains a non-empty value (not a zero-length byte array).
- containsRange(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- containsRange(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Returns true if the given inclusive range of rows is fully contained
by this region.
- containsRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- containsRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- containsServer(Address) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- containsTable(TableName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- containsValue(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- containsValue(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- containsValue(Object) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- Context - org.apache.hadoop.hbase.io.crypto中的类
-
Crypto context.
- Context() - 类 的构造器org.apache.hadoop.hbase.ipc.RpcScheduler.Context
-
- Context(Configuration, Configuration, FileSystem, String, UUID, ReplicationPeer, MetricsSource, TableDescriptors, Abortable) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- control(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- control(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- control(String, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Control the throughput.
- controller - 类 中的变量org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- controller - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- controlPerSize - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- convert(Map<TableName, ? extends Collection<String>>) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
convert map to TableCFs Object
- convert(String) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Convert string to TableCFs Object.
- convert(ReplicationProtos.TableCF[]) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Convert TableCFs Object to String.
- convert(ReplicationProtos.ReplicationPeer) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- convert(ReplicationPeerConfig) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- convert() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
Covert to PB version of TableState
- convert(TableName, HBaseProtos.TableState) - 类 中的静态方法org.apache.hadoop.hbase.client.TableState
-
Covert from PB version of TableState
- convert(HBaseProtos.TableState.State) - 枚举 中的静态方法org.apache.hadoop.hbase.client.TableState.State
-
Covert from PB version of State
- convert() - 枚举 中的方法org.apache.hadoop.hbase.client.TableState.State
-
Covert to PB version of State
- convert() - 类 中的方法org.apache.hadoop.hbase.ClusterId
-
- convert(ClusterIdProtos.ClusterId) - 类 中的静态方法org.apache.hadoop.hbase.ClusterId
-
- convert(HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- convert(HBaseProtos.RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- convert() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- convert(FSProtos.Reference) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- convert() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
Convert a RegionState to an HBaseProtos.RegionState
- convert(ClusterStatusProtos.RegionState) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionState
-
Convert a protobuf HBaseProtos.RegionState to a RegionState
- convert() - 枚举 中的方法org.apache.hadoop.hbase.master.RegionState.State
-
Convert to protobuf ClusterStatusProtos.RegionState.State
- convert(ClusterStatusProtos.RegionState.State) - 枚举 中的静态方法org.apache.hadoop.hbase.master.RegionState.State
-
Convert a protobuf HBaseProtos.RegionState.State to a RegionState.State
- convert(DeserializationException) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- convert2Map(ReplicationProtos.TableCF[]) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Convert tableCFs Object to Map.
- convertByteArrayToBoolean(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Converts a boolean expressed in a byte array to an actual boolean
This doesn't used Bytes.toBoolean because Bytes.toBoolean(byte [])
assumes that 1 stands for true and 0 for false.
- convertByteArrayToInt(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Converts an int expressed in a byte array to an actual int
This doesn't use Bytes.toInt because that assumes
that there will be
Bytes.SIZEOF_INT bytes available.
- convertByteArrayToLong(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Converts a long expressed in a byte array to an actual long
This doesn't use Bytes.toLong because that assumes
that there will be
Bytes.SIZEOF_INT bytes available.
- convertResult(MasterProtos.GetProcedureResultResponse) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
Convert the procedure result response to a specified type.
- convertScanToString(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Writes the given scan into a Base64 encoded string.
- convertStringToScan(String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Converts the given Base64 string back into a Scan instance.
- convertThrowableToIOE(Throwable, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- convertToBigInteger(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the BigInteger represented by the byte array
- convertToByte(BigInteger, int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the bytes corresponding to the BigInteger
- convertToByte(BigInteger) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the bytes corresponding to the BigInteger
- convertToBytes(BigInteger[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns an array of bytes corresponding to an array of BigIntegers
- convertToProcedureMetrics(OperationMetrics) - 类 中的静态方法org.apache.hadoop.hbase.master.MetricsMaster
-
This is utility function that converts OperationMetrics to ProcedureMetrics.
- convertToString(Set<String>) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- convertToString(Map<TableName, ? extends Collection<String>>) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- CoordinatedStateManager - org.apache.hadoop.hbase中的接口
-
Implementations of this interface will keep and return to clients
implementations of classes providing API to execute
coordinated operations.
- COPROC - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
- coprocEnvironments - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Ordered set of loaded coprocessors with lock
- Coprocessor - org.apache.hadoop.hbase中的接口
-
Base interface for the 4 coprocessors - MasterCoprocessor, RegionCoprocessor,
RegionServerCoprocessor, and WALCoprocessor.
- Coprocessor.State - org.apache.hadoop.hbase中的枚举
-
Lifecycle state of a given coprocessor instance.
- COPROCESSOR_EXECUTION_STATISTICS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- COPROCESSOR_EXECUTION_STATISTICS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- CoprocessorClassLoader - org.apache.hadoop.hbase.util中的类
-
ClassLoader used to load classes for Coprocessor instances.
- CoprocessorDescriptor - org.apache.hadoop.hbase.client中的接口
-
CoprocessorDescriptor contains the details about how to build a coprocessor.
- CoprocessorDescriptorBuilder - org.apache.hadoop.hbase.client中的类
-
- CoprocessorEnvironment<C extends Coprocessor> - org.apache.hadoop.hbase中的接口
-
Coprocessor environment state.
- CoprocessorException - org.apache.hadoop.hbase.coprocessor中的异常错误
-
Thrown if a coprocessor encounters any exception.
- CoprocessorException() - 异常错误 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorException
-
Default Constructor
- CoprocessorException(Class<?>, String) - 异常错误 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorException
-
Constructor with a Class object and exception message.
- CoprocessorException(String) - 异常错误 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorException
-
Constructs the exception and supplies a string as the message
- CoprocessorHost<C extends Coprocessor,E extends CoprocessorEnvironment<C>> - org.apache.hadoop.hbase.coprocessor中的类
-
Provides the common setup framework and runtime services for coprocessor
invocation from HBase services.
- CoprocessorHost(Abortable) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- coprocessorHost - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- CoprocessorHost.ObserverGetter<C,O> - org.apache.hadoop.hbase.coprocessor中的接口
-
Implementations defined function to get an observer of type O from a coprocessor of
type C.
- CoprocessorHost.ObserverOperationWithoutResult<O> - org.apache.hadoop.hbase.coprocessor中的类
-
- CoprocessorHost.ObserverOperationWithResult<O,R> - org.apache.hadoop.hbase.coprocessor中的类
-
- CoprocessorRpcChannel - org.apache.hadoop.hbase.ipc中的接口
-
Base interface which provides clients with an RPC connection to
call coprocessor endpoint Services.
- CoprocessorRpcUtils - org.apache.hadoop.hbase.ipc中的类
-
Utilities for handling coprocessor rpc service calls.
- CoprocessorRpcUtils.BlockingRpcCallback<R> - org.apache.hadoop.hbase.ipc中的类
-
- COPROCESSORS_ENABLED_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- coprocessorService() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates and returns a RpcChannel instance connected to the active
master.
- coprocessorService(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates and returns a RpcChannel instance
connected to the passed region server.
- coprocessorService(Function<RpcChannel, S>, ServiceCaller<S, R>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Execute the given coprocessor call on the master.
- coprocessorService(Function<RpcChannel, S>, ServiceCaller<S, R>, ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Execute the given coprocessor call on the given region server.
- coprocessorService(Function<RpcChannel, S>, ServiceCaller<S, R>, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Execute the given coprocessor call on the region which contains the given row.
- coprocessorService(Function<RpcChannel, S>, ServiceCaller<S, R>, AsyncTable.CoprocessorCallback<R>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Execute a coprocessor call on the regions which are covered by a range.
- coprocessorService() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- coprocessorService(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- coprocessorService(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>, Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- coprocessorService(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Creates and returns a RpcChannel instance connected to the
table region containing the specified row.
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Creates an instance of the given Service subclass for each table
region spanning the range from the startKey row to endKey row (inclusive), and
invokes the passed Batch.Call.call(T) method
with each Service instance.
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>, Batch.Callback<R>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Creates an instance of the given Service subclass for each table
region spanning the range from the startKey row to endKey row (inclusive), and
invokes the passed Batch.Call.call(T) method
with each Service instance.
- CoprocessorService - org.apache.hadoop.hbase.coprocessor中的接口
-
- coprocessorService(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>, Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- CoprocessorServiceBackwardCompatiblity - org.apache.hadoop.hbase.coprocessor中的类
-
已过时。
- CoprocessorServiceBackwardCompatiblity() - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity
-
已过时。
- CoprocessorServiceBackwardCompatiblity.MasterCoprocessorService - org.apache.hadoop.hbase.coprocessor中的类
-
已过时。
- CoprocessorServiceBackwardCompatiblity.RegionCoprocessorService - org.apache.hadoop.hbase.coprocessor中的类
-
已过时。
- CoprocessorServiceBackwardCompatiblity.RegionServerCoprocessorService - org.apache.hadoop.hbase.coprocessor中的类
-
已过时。
- copy(ColumnFamilyDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- copy(TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- copy(TableName, TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- copy(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Copy the byte array given in parameter and return an instance
of a new byte array with the same length and the same content.
- copy(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Copy the byte array given in parameter and return an instance
of a new byte array with the same length and the same content.
- copy(byte[], int, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Copies the bytes from given array's offset to length part into the given buffer.
- copy(ByteBuffer, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Copies specified number of bytes from given offset of src ByteBuffer to the
dest array.
- copy(ByteBuffer, int, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Copies specified number of bytes from given offset of src buffer into the dest
buffer.
- copyBufferToStream(OutputStream, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy data from a buffer to an output stream.
- copyBufferToStream(DataOutput, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy data from a buffer to an output stream.
- copyBytes() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Returns a copy of the bytes referred to by this writable
- copyBytes() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
Returns a copy of the bytes referred to by this writable
- copyCellInto(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- copyCellInto(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Allocates slice in this LAB and copy the passed Cell into this area.
- copyCellInto(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- copyDeadServersSince(long) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Extract all the servers dead since a given time, and sort them.
- copyFamilyTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the family to the given byte[]
- copyFamilyTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the family to the given bytebuffer
- copyFilesParallel(FileSystem, Path, FileSystem, Path, Configuration, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- copyFrom(Result) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Copy another Result into this one.
- copyFromArrayToBuffer(ByteBuffer, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copies the bytes from given array's offset to length part into the given buffer.
- copyFromArrayToBuffer(ByteBuffer, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copies bytes from given array's offset to length part into the given buffer.
- copyFromBufferToArray(byte[], ByteBuffer, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copies specified number of bytes from given offset of 'in' ByteBuffer to
the array.
- copyFromBufferToBuffer(ByteBuffer, ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy one buffer's whole data to another.
- copyFromBufferToBuffer(ByteBuffer, ByteBuffer, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy from one buffer to another from given offset.
- copyFromBufferToBuffer(ByteBuffer, ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy from one buffer to another from given offset.
- copyFromNext(BufferedDataBlockEncoder.SeekerState) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder.DiffSeekerState
-
- copyFromNext(BufferedDataBlockEncoder.SeekerState) - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder.FastDiffSeekerState
-
- copyFromStreamToBuffer(ByteBuffer, DataInputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy the given number of bytes from the given stream and put it at the
current position of the given buffer, updating the position in the buffer.
- CopyKeyDataBlockEncoder - org.apache.hadoop.hbase.io.encoding中的类
-
Just copy data, do not do any kind of compression.
- CopyKeyDataBlockEncoder() - 类 的构造器org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- copyKeyToNewByteBuffer(Cell) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
The position will be set to the beginning of the new ByteBuffer
- copyOfRange(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- COPYONWRITE_ARRAYLIST - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CopyOnWriteArrayList
- COPYONWRITE_ARRAYSET - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for CopyOnWriteArraySet
- CopyOnWriteArrayMap<K,V> - org.apache.hadoop.hbase.types中的类
-
A Map that keeps a sorted array in order to provide the concurrent map interface.
- CopyOnWriteArrayMap() - 类 的构造器org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- CopyOnWriteArrayMap(Comparator<? super K>) - 类 的构造器org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- copyQualifierTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the qualifier to the given byte[]
- copyQualifierTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the qualifier to the given bytebuffer
- copyQuotaSnapshots() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- copyRow(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the row to a new byte[]
- copyRowTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the row to the given byte[]
- copyRowTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the row to the given bytebuffer
- copyServerNames() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- copySnapshotForScanner(Configuration, FileSystem, Path, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Copy the snapshot files for a snapshot scanner, discards meta changes.
- CopyTable - org.apache.hadoop.hbase.mapreduce中的类
-
Tool used to copy a table to another one which can be on a different setup.
- CopyTable() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CopyTable
-
- copyTagsTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Copies the tags info into the tag portion of the cell
- copyTagsTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Copies the tags info into the tag portion of the cell
- copyTagTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- copyTagTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- copyToNewArrays(Collection<ByteRange>) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteRangeUtils
-
- copyToNewByteArray(Cell) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- copyToNewKeyValue(Cell) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
copy the cell to create a new keyvalue
- copyValueTo(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the value to the given byte[]
- copyValueTo(Cell, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Copies the value to the given bytebuffer
- copyValueTo(Tag, byte[], int) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Copies the tag's value bytes to the given byte array
- copyWritable(Writable, Writable) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
Copy one Writable to another.
- copyWritable(byte[], Writable) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
Copy one Writable to another.
- CoreCoprocessor - org.apache.hadoop.hbase.coprocessor中的注释类型
-
Marker annotation that denotes Coprocessors that are core to HBase.
- CORRUPT_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CorruptedSnapshotException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Exception thrown when the found snapshot info from the filesystem is not valid
- CorruptedSnapshotException(String, Exception) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.CorruptedSnapshotException
-
- CorruptedSnapshotException(String, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.CorruptedSnapshotException
-
Snapshot was corrupt for some reason
- CorruptedSnapshotException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.CorruptedSnapshotException
-
- CorruptHFileException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
This exception is thrown when attempts to read an HFile fail due to corruption or truncation
issues.
- CorruptHFileException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.CorruptHFileException
-
- CorruptHFileException(String) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.CorruptHFileException
-
- Counter - org.apache.hadoop.hbase.util中的类
-
- Counter() - 类 的构造器org.apache.hadoop.hbase.util.Counter
-
已过时。
- Counter(long) - 类 的构造器org.apache.hadoop.hbase.util.Counter
-
已过时。
- countOfRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- CP_HTD_ATTR_INCLUSION_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CP_HTD_ATTR_KEY_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CP_HTD_ATTR_VALUE_PARAM_KEY_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CP_HTD_ATTR_VALUE_PARAM_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CP_HTD_ATTR_VALUE_PARAM_VALUE_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- CP_HTD_ATTR_VALUE_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- create(CellBuilderType) - 类 中的静态方法org.apache.hadoop.hbase.CellBuilderFactory
-
Create a CellBuilder instance.
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.backoff.ClientBackoffPolicyFactory
-
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RequestControllerFactory
-
- create(List<Cell>) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
Instantiate a Result with the specified List of KeyValues.
- create(List<Cell>, Boolean) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- create(List<Cell>, Boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- create(List<Cell>, Boolean, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- create(Cell[]) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
Instantiate a Result with the specified array of KeyValues.
- create(Cell[], Boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- create(Cell[], Boolean, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.ServerStatisticTracker
-
- create(CellBuilderType) - 类 中的静态方法org.apache.hadoop.hbase.ExtendedCellBuilderFactory
-
Allows creating a cell with the given CellBuilderType.
- create() - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Creates a Configuration with HBase resources
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
- create() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- create(Configuration, FileSystem, Path, RegionInfo, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, RegionInfo, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, TableName, String, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(String, MetricsHBaseServerWrapper) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceFactoryImpl
-
- create(DataInput) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
- create(int, DataInput) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Create a KeyValue reading length from in
- create(String, String, String, long, String) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- create(String, String, String, long, KeyValue.Type, String) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- create(DataInput) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- create(int, DataInput) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue reading length from in
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int, String) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
已过时。
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int, List<Tag>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- create(MetricsMasterWrapper) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterProcSourceFactory
-
- create(MetricsMasterWrapper) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterProcSourceFactoryImpl
-
- create(MetricsMasterWrapper) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceFactory
-
- create(MetricsMasterWrapper) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceFactoryImpl
-
- create(MetricsMasterWrapper) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceFactory
-
- create(MetricsMasterWrapper) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceFactoryImpl
-
- create(FileSystem, Path, Configuration, CacheConfig) - 类 中的静态方法org.apache.hadoop.hbase.mob.CachedMobFile
-
- create(FileSystem, Path, Configuration, CacheConfig) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFile
-
Creates an instance of the MobFile.
- create(byte[], String, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFileName
-
Creates an instance of MobFileName
- create(String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFileName
-
Creates an instance of MobFileName
- create(String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFileName
-
Creates an instance of MobFileName.
- create(String) - 类 中的静态方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- create(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- create(Configuration) - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifierFactory
-
- create(RegionServerServices, TableName, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcementFactory
-
- create() - 类 中的静态方法org.apache.hadoop.hbase.RawCellBuilderFactory
-
- create(Configuration, PriorityFunction, Abortable) - 类 中的方法org.apache.hadoop.hbase.regionserver.FifoRpcSchedulerFactory
-
- create(Configuration, PriorityFunction) - 类 中的方法org.apache.hadoop.hbase.regionserver.FifoRpcSchedulerFactory
-
已过时。
- create(HRegion, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
Create the FlushPolicy configured for the given table.
- create(Configuration, FlushRequester, Server, RegionServerAccounting) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- create(ScanInfo, ScanType, long, long, long, long, byte[], byte[], RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- create(Scan, ScanInfo, ColumnTracker, DeleteTracker, boolean, long, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- create(Scan, ScanInfo, ColumnTracker, boolean, long, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- create(Scan, ScanInfo, NavigableSet<byte[]>, long, long, RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- create(HRegion, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
Create the RegionSplitPolicy configured for the given table.
- create(Configuration, PriorityFunction, Abortable) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RpcSchedulerFactory
-
- create(Configuration, PriorityFunction) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RpcSchedulerFactory
-
已过时。
- create(Configuration, PriorityFunction) - 类 中的方法org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
已过时。
- create(Configuration, PriorityFunction, Abortable) - 类 中的方法org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
- create(HStore, Configuration, CellComparator) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Create the StoreEngine configured for the given Store.
- create(RegionServerServices, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- create(RegionServerServices, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- create(TimeRangeTracker.Type) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- create(TimeRangeTracker.Type, TimeRangeTracker) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- create(TimeRangeTracker.Type, long, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- create(Configuration, String, CompressionContext) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
Create and setup a
WALCellCodec from the
cellCodecClsName and
CompressionContext, if
cellCodecClsName is specified.
- create(Configuration, CompressionContext) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
Create and setup a
WALCellCodec from the
CompressionContext.
- create(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Wraps an underlying UserGroupInformation instance.
- create(UserGroupInformation) - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
Wraps an underlying UserGroupInformation instance.
- create(Configuration, FileSystem, Path, SnapshotProtos.SnapshotDescription, ForeignExceptionSnare) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Return a SnapshotManifest instance, used for writing a snapshot.
- create(FileSystem, Path, FsPermission, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Create the specified file on the filesystem.
- create(Configuration, FileSystem, Path, FsPermission, InetSocketAddress[]) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Create the specified file on the filesystem.
- create() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounterFactory
-
- create(A, B, C) - 类 中的静态方法org.apache.hadoop.hbase.util.Triple
-
- create(String, byte[], List<ACL>, CreateMode) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
NONSEQUENTIAL create is idempotent operation.
- CREATE_TABLE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- createACL(ZKWatcher, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- createAndFailSilent(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified node, iff the node does not exist.
- createAndFailSilent(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified node containing specified data, iff the node does not exist.
- createAndFailSilent(String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp
-
- createAndPrepare(E) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
已过时。
- createAndWatch(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified node with the specified data and watches it.
- createAnother() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
Creates another similar Bloom filter.
- CreateAsyncCallback() - 类 的构造器org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateAsyncCallback
-
- createAsyncConnection() - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
- createAsyncConnection(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
- createAsyncConnection(Configuration, User) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new AsyncConnection instance using the passed conf and user.
- createAsyncWriter(Configuration, FileSystem, Path, boolean, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.wal.AsyncFSWALProvider
-
Public because of AsyncFSWAL.
- createAsyncWriter(Configuration, FileSystem, Path, boolean, long, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.wal.AsyncFSWALProvider
-
Public because of AsyncFSWAL.
- createBlockingRpcChannel(ServerName, User, int) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- createBlockingRpcChannel(ServerName, User, int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcClient
-
Creates a "channel" that can be used by a blocking protobuf service.
- createBottomReference(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- createBulkLoadEvent(RegionInfo, WALProtos.BulkLoadDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
Create a bulk loader WALEdit
- createBySize(int, double, int, int, BloomType) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
Creates a Bloom filter chunk of the given size.
- createCacheConf(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the mob cache config.
- createCacheConf(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Creates the cache config.
- createCell(byte[], byte[], byte[], long, byte, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], int, int, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], byte[], byte[], long, byte, byte[], long) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], byte[], byte[], long, byte, byte[], byte[], long) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], byte[], byte[], long, KeyValue.Type, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(byte[], byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(Cell, List<Tag>) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(Cell, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCell(Cell, List<Tag>) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createCell(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createCell(Cell, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createCellScanner(List<? extends CellScannable>) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCellScanner(Iterable<Cell>) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCellScanner(Iterator<Cell>) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCellScanner(Cell[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- createCellScanner(NavigableMap<byte[], List<Cell>>) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Flatten the map of cells out under the CellScanner
- createCleanupScheduledChore(Stoppable) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Creates a scheduled chore that is used to clean up old nonces.
- createClient(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcClientFactory
-
Helper method for tests only.
- createClient(Configuration, String, MetricsConnection) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcClientFactory
-
Creates a new RpcClient by the class defined in the configuration or falls back to
RpcClientImpl
- createClient(Configuration, String, SocketAddress, MetricsConnection) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcClientFactory
-
Creates a new RpcClient by the class defined in the configuration or falls back to
RpcClientImpl
- createClusterConf(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Generates a Configuration instance by applying the ZooKeeper cluster key
to the base Configuration.
- createClusterConf(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Generates a Configuration instance by applying property overrides prefixed by
a cluster profile key to the base Configuration.
- createClusterConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Create a 'smarter' Connection, one that is capable of by-passing RPC if the request is to
the local server; i.e. a short-circuit Connection.
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredStoreEngine
-
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Creates an instance of a compaction context specific to this engine.
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- createCompaction(RegionInfo, WALProtos.CompactionDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
Create a compaction WALEdit
- createCompactionPolicy(Configuration, HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createCompactionState(AdminProtos.GetRegionInfoResponse.CompactionState) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Creates
CompactionState from
AdminProtos.GetRegionInfoResponse.CompactionState
state
- createCompactionState(CompactionState) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- createCompactor(Configuration, HStore) - 类 中的方法org.apache.hadoop.hbase.mob.MobStoreEngine
-
Creates the DefaultMobCompactor.
- createCompactor(Configuration, HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createComparator(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Parses a comparator of the form comparatorType:comparatorValue form and returns a comparator
- createComparator(String) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- createCompareOp(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
- createCompareOperator(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Takes a compareOperator symbol as a byte array and returns the corresponding CompareOperator
- createCompleteResult(Iterable<Result>) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
Forms a single result from the partial results in the partialResults list.
- createComponents(Configuration, HStore, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredStoreEngine
-
- createComponents(Configuration, HStore, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createComponents(Configuration, HStore, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Create the StoreEngine's components.
- createComponents(Configuration, HStore, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- createCompositeImmutableSegment(CellComparator, List<ImmutableSegment>) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createCompositeKey(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
Creates a composite key to use as a mapper output key when using
MultiTableHFileOutputFormat.configureIncrementaLoad to set up bulk ingest job
- createCompositeKey(byte[], ImmutableBytesWritable) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
Alternate api which accepts an ImmutableBytesWritable for the suffix
- createCompositeKey(String, ImmutableBytesWritable) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
Alternate api which accepts a String for the tableName and ImmutableBytesWritable for the
suffix
- createConnection() - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new Connection instance using default HBaseConfiguration.
- createConnection(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new Connection instance using the passed conf instance.
- createConnection(Configuration, ExecutorService) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new Connection instance using the passed conf instance.
- createConnection(Configuration, User) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new Connection instance using the passed conf instance.
- createConnection(Configuration, ExecutorService, User) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionFactory
-
Create a new Connection instance using the passed conf instance.
- createConnection(Configuration) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
Creates a cluster connection using the passed Configuration.
- createConnection(Configuration) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
Creates a cluster connection using the passed Configuration.
- createConnection(Configuration) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
Creates a cluster connection using the passed Configuration.
- createConnection(ConnectionId) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
Not connected.
- createConnection(ConnectionId) - 类 中的方法org.apache.hadoop.hbase.ipc.BlockingRpcClient
-
Creates a connection.
- createConnection(ConnectionId) - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcClient
-
- createConnection(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- createConnection(Configuration) - 接口 中的方法org.apache.hadoop.hbase.Server
-
- createContextName(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceFactory
-
From the name of the class that's starting up create the
context that an IPC source should register itself.
- createCryptoAES(RPCProtos.CryptoCipherMeta, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.EncryptionUtil
-
Helper to create an instance of CryptoAES.
- createCursor(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.ClientUtil
-
- createCursorResult(Cursor) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
- createDecryptionStream(InputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- createDecryptionStream(InputStream, Decryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- createDecryptionStream(InputStream) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- createDecryptionStream(InputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- createDecryptionStream(InputStream, Decryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- createDecryptionStream(InputStream) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- createDecryptionStream(InputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Create a decrypting input stream given a context and IV
- createDecryptionStream(InputStream, Decryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Create a decrypting output stream given an initialized decryptor
- createDecryptionStream(InputStream) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Create a stream for decryption
- createDeleteBloomAtWrite(Configuration, CacheConfig, int, HFile.Writer) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Creates a new Delete Family Bloom filter at the time of
HStoreFile writing.
- createDelFileWriter(Configuration, FileSystem, ColumnFamilyDescriptor, String, Path, long, Compression.Algorithm, byte[], CacheConfig, Encryption.Context) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the del file in temp directory.
- createDelFileWriterInTmp(Date, long, Compression.Algorithm, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the writer for the del file in temp directory.
- createDestinationServersList(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Creates a list of possible destinations for a region.
- createDestinationServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- createDigestSaslClient(String[], String, CallbackHandler) - 类 中的方法org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- createEncoder(String) - 枚举 中的静态方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
- createEncryptionContext(Configuration, ColumnFamilyDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.security.EncryptionUtil
-
Helper to create an encyption context.
- createEncryptionStream(OutputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- createEncryptionStream(OutputStream, Encryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- createEncryptionStream(OutputStream) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- createEncryptionStream(OutputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- createEncryptionStream(OutputStream, Encryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- createEncryptionStream(OutputStream) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- createEncryptionStream(OutputStream, Context, byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Create an encrypting output stream given a context and IV
- createEncryptionStream(OutputStream, Encryptor) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Create an encrypting output stream given an initialized encryptor
- createEncryptionStream(OutputStream) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Create a stream for encryption
- createEnvironment(C, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Called when a new Coprocessor class is loaded
- createEnvironment(MasterCoprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- createEnvironment(RegionCoprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- createEnvironment(RegionServerCoprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- createEnvironment(WALCoprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- createEphemeralNodeAndWatch(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Set the specified znode to be an ephemeral node carrying the specified
data.
- createEventLoopPerClient(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.ipc.NettyRpcClientConfigHelper
-
The AsyncRpcClient will create its own NioEventLoopGroup.
- createExceptionString(Class) - 类 中的静态方法org.apache.hadoop.hbase.CompatibilityFactory
-
- createExecutor(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
Creating this filter by reflection, it is used by
ParseFilter,
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.FamilyFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.FilterBase
-
Given the filter's arguments it constructs the filter
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.KeyOnlyFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.PageFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.QualifierFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.RowFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- createFilterFromArguments(ArrayList<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ValueFilter
-
- createFirstDeleteFamilyCellOnRow(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Create a Delete Family Cell for the specified row and family that would be smaller than all
other possible Delete Family KeyValues that have the same row and family.
- createFirstKeyCell(ByteBuffer, int) - 类 中的方法org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder
-
- createFirstOnNextRow(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRow(byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue that is smaller than all other possible KeyValues
for the given row.
- createFirstOnRow(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue that is smaller than all other possible KeyValues
for the given row.
- createFirstOnRow(byte[], long) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Creates a KeyValue that is smaller than all other KeyValues that
are older than the passed timestamp.
- createFirstOnRow(byte[], byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue for the specified row, family and qualifier that would be
smaller than all other possible KeyValues that have the same row,family,qualifier.
- createFirstOnRow(byte[], byte[], byte[], long) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- createFirstOnRow(byte[], int, int, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue for the specified row, family and qualifier that would be
smaller than all other possible KeyValues that have the same row,
family, qualifier.
- createFirstOnRow(byte[], byte[], byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue for the specified row, family and qualifier that would be
smaller than all other possible KeyValues that have the same row,
family, qualifier.
- createFirstOnRow(byte[], int, byte[], int, int, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue for the specified row, family and qualifier that would be
smaller than all other possible KeyValues that have the same row,
family, qualifier.
- createFirstOnRow(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Create a Cell that is smaller than all other possible Cells for the given Cell's row.
- createFirstOnRow(byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRow(byte[], byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRow(byte[], int, short, byte[], int, byte, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRow(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRowCol(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFirstOnRowCol(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Create a Cell that is smaller than all other possible Cells for the given Cell's rk:cf and
passed qualifier.
- createFirstOnRowColTS(Cell, long) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Creates the first cell with the row/family/qualifier of this cell and the given timestamp.
- createFirstOnRowFamily(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createFlushContext(long, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createFlushWALEdit(RegionInfo, WALProtos.FlushDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- createForTesting(RegionInfo, RegionState.State) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionState
-
- createFromFileInfo(HFile.FileInfo) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- createFromHFileLink(Configuration, FileSystem, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink starting from a hfileLink name
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- createFromHFileLink(Configuration, FileSystem, Path, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink starting from a hfileLink name
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- createFromMeta(DataInput, HFile.Reader) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Instantiates the correct Bloom filter class based on the version provided
in the meta block data.
- createGeneralBloomAtWrite(Configuration, CacheConfig, BloomType, int, HFile.Writer) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Creates a new general (Row or RowCol) Bloom filter at the time of
HStoreFile writing.
- createGroupKey(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Create a key by concatenating multiple column values.
- createGroupKey(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Create a key by concatenating multiple column values.
- createHBaseProtosSnapshotDesc(SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- createHDFSRegionDir(Configuration, RegionInfo, TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
Creates, flushes, and closes a new region.
- createHFileContext(FSDataInputStreamWrapper, long, HFileSystem, Path, FixedFileTrailer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- createHFileCorruptionChecker(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- createHFileLinkName(RegionInfo, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink name
- createHFileLinkName(TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink name
- createHostAndPortStr(String, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- createHRegion(RegionInfo, Path, Configuration, TableDescriptor, WAL, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Convenience method creating new HRegions.
- createHRegion(RegionInfo, Path, Configuration, TableDescriptor, WAL) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- createImmutableSegment(CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createImmutableSegment(MutableSegment) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createImmutableSegmentByCompaction(Configuration, CellComparator, MemStoreSegmentsIterator, int, CompactingMemStore.IndexType, MemStoreCompactionStrategy.Action) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createImmutableSegmentByFlattening(CSLMImmutableSegment, CompactingMemStore.IndexType, MemStoreSizing, MemStoreCompactionStrategy.Action) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createImmutableSegmentByMerge(Configuration, CellComparator, MemStoreSegmentsIterator, int, List<ImmutableSegment>, CompactingMemStore.IndexType, MemStoreCompactionStrategy.Action) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createInetSocketAddressFromHostAndPortStr(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- createInProgressTag(Path, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Create in-progress tag under .tmp of in-progress snapshot
- createIO(MetricsIOWrapper) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Create a MetricsIOSource from a MetricsIOWrapper.
- createIO(MetricsIOWrapper) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- createKerberosSaslClient(String[], String, String) - 类 中的方法org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- createKey() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- createKeyOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
Creates a new KeyValue that only contains the key portion (the value is
set to be null).
- createKeyValueFromKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- createKeyValueFromKey(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- createKeyValueFromKey(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- createLastOnRow(byte[], int, int, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue for the specified row, family and qualifier that would be
larger than or equal to all other possible KeyValues that have the same
row, family, qualifier.
- createLastOnRow(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Creates a KeyValue that is last on the specified row id.
- createLastOnRow(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Create a Cell that is larger than all other possible Cells for the given Cell's row.
- createLastOnRow(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createLastOnRowCol(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Create a Cell that is larger than all other possible Cells for the given Cell's rk:cf:q.
- createLease(String, int, LeaseListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Create a lease and insert it to the map of leases.
- createList(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- createMasterThread(Configuration, Class<? extends HMaster>, int) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- createMaxByteArray(int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Create a max byte array with the specified max byte count
- createMemStoreCompactor(MemoryCompactionPolicy) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- createMergesDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Create the region merges directory.
- createMetaBootstrap() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Create a MasterMetaBootstrap instance.
- createMetaTableDescriptor(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- createMetaTableDescriptorBuilder(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- createMobCompactorThreadPool(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a thread pool.
- createMobRefCell(Cell, byte[], Tag) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a mob reference KeyValue.
- createMobRefCell(Cell, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
- createMobRefDeleteMarker(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a mob ref delete marker.
- createMobRegionInfo(TableName) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Creates a RegionInfo object for MOB data.
- createMutableSegment(Configuration, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- createNamespace(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new namespace.
- createNamespace(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Create a new namespace.
- createNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createNamespace(RpcController, MasterProtos.CreateNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- createNamespace(NamespaceDescriptor, NonceKey, ProcedurePrepareLatch) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
Create a new Namespace.
- createNamespace(RpcController, MasterProtos.CreateNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createNamespaceAsync(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a new namespace.
- createNamespaceAsync(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createNettyRpcServerPreambleHandler() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- createNextOnRowCol(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- createNInputSplitsUniform(InputSplit, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Create n splits for one InputSplit, For now only support uniform distribution
- createNodeIfNotExistsAndWatch(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified znode to be a persistent node carrying the specified
data.
- createNodeIfNotExistsNoWatch(ZKWatcher, String, byte[], CreateMode) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified znode with the specified data but does not watch it.
- createObject(K) - 接口 中的方法org.apache.hadoop.hbase.util.ObjectPool.ObjectFactory
-
Creates a new shared object associated with the given key,
identified by the equals method.
- createOutput(FileSystem, Path, boolean, boolean, short, long, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutputHelper
-
Create
FanOutOneBlockAsyncDFSOutput for
DistributedFileSystem, and a simple
implementation for other
FileSystem which wraps around a
FSDataOutputStream.
- createOutput(DistributedFileSystem, Path, boolean, boolean, short, long, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- createOutputStream(Configuration, FileSystem, Path, InetSocketAddress[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
A helper method to create HFile output streams in constructors
- createPath(TableName, String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create an HFileLink relative path for the table/region/family/hfile location
- createPool() - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- createPriority() - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- createProtobufOutput() - 接口 中的方法org.apache.hadoop.hbase.rest.ProtobufMessageHandler
-
- createProtosSnapShotDescType(SnapshotType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Creates
HBaseProtos.SnapshotDescription.Type
from
SnapshotType
- createProtosSnapShotDescType(String) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Creates HBaseProtos.SnapshotDescription.Type
from the type of SnapshotDescription string
- createReader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
The sockets and the file descriptors held by the method parameter
FSDataInputStreamWrapper passed will be freed after its usage so caller needs to ensure
that no other threads have access to the same passed reference.
- createReader(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Creates reader with cache configuration disabled
- createReader(FileSystem, Path, CacheConfig, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- createReader(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- createReader(FileSystem, Path, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the WAL.
- createReader(FileSystem, Path, CancelableProgressable, boolean) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- createReader(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the given path, accept custom reader classes from conf.
- createReaderIgnoreCustomClass(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the given path, ignore custom reader classes from conf.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HFileInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Builds a TableRecordReader.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- createRecoveredEditsWriter(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Should be package-private, visible for recovery testing.
- createReference(K, V) - 类 中的方法org.apache.hadoop.hbase.util.ObjectPool
-
Create a reference associated with the given object
- createReference(K, V) - 类 中的方法org.apache.hadoop.hbase.util.SoftObjectPool
-
- createReference(K, V) - 类 中的方法org.apache.hadoop.hbase.util.WeakObjectPool
-
- createRefFileWriter(Configuration, FileSystem, ColumnFamilyDescriptor, Path, long, CacheConfig, Encryption.Context, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the ref file in temp directory.
- createRegion(MetricsRegionWrapper) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Create a MetricsRegionSource from a MetricsRegionWrapper.
- createRegion(MetricsRegionWrapper) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- createRegion(Configuration, Path, TableDescriptor, RegionInfo, ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegionEventWALEdit(RegionInfo, WALProtos.RegionEventDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- createRegionInfos(TableDescriptor, byte[][]) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
- createRegionLoad(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- createRegionLoadStats(ClientProtos.RegionLoadStats) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- createRegionName(TableName, byte[], long, boolean) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Make a region name of passed parameters.
- createRegionName(TableName, byte[], String, boolean) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Make a region name of passed parameters.
- createRegionName(TableName, byte[], long, int, boolean) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Make a region name of passed parameters.
- createRegionName(TableName, byte[], byte[], boolean) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Make a region name of passed parameters.
- createRegionName(TableName, byte[], byte[], int, boolean) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Make a region name of passed parameters.
- createRegionName(TableName, byte[], long, boolean) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- createRegionName(TableName, byte[], String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- createRegionName(TableName, byte[], long, int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- createRegionName(TableName, byte[], byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- createRegionName(TableName, byte[], byte[], int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- createRegionOnFileSystem(Configuration, FileSystem, Path, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Create a new Region on file-system.
- createRegions(Configuration, Path, TableDescriptor, RegionInfo[], ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegions(ThreadPoolExecutor, Configuration, Path, TableDescriptor, RegionInfo[], ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegionServerStatusStub() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Get the current master from ZooKeeper and open the RPC connection to it.
- createRegionServerStatusStub(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Get the current master from ZooKeeper and open the RPC connection to it.
- createRegionServerThread(Configuration, Class<? extends HRegionServer>, int) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- createRegionSizeCalculator(RegionLocator, Admin) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- createRegistryForMasterCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForRegionCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForRSCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForWALCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryInfoForRegionCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryInfoForWALCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- CreateRescanAsyncCallback() - 类 的构造器org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateRescanAsyncCallback
-
- createRpcChannel(ServerName, User, int) - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- createRpcChannel(ServerName, User, int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcClient
-
Creates a "channel" that can be used by a protobuf service.
- createRpcServer(Server, String, List<RpcServer.BlockingServiceAndInterface>, InetSocketAddress, Configuration, RpcScheduler) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServerFactory
-
- createRpcServer(Server, String, List<RpcServer.BlockingServiceAndInterface>, InetSocketAddress, Configuration, RpcScheduler, boolean) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServerFactory
-
- createRpcServer(Server, Configuration, RpcSchedulerFactory, InetSocketAddress, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createRpcServer(Server, Configuration, RpcSchedulerFactory, InetSocketAddress, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- createRpcServices() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createRpcServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- createScanFromConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets up a
Scan instance, applying settings from the configuration property
constants defined in
TableInputFormat.
- createScanFromCursor(Cursor) - 类 中的静态方法org.apache.hadoop.hbase.client.Scan
-
Create a new Scan with a cursor.
- createScanner(Scan, ScanInfo, NavigableSet<byte[]>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Gets the MobStoreScanner or MobReversedStoreScanner.
- createScanner(Scan, ScanInfo, NavigableSet<byte[]>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createScannerCallable() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
Will be called in moveToNextRegion to create ScannerCallable.
- createScannerCallable() - 类 中的方法org.apache.hadoop.hbase.client.ClientSimpleScanner
-
- createScannerCallable() - 类 中的方法org.apache.hadoop.hbase.client.ReversedClientScanner
-
- createScanResultCache(Scan) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
- createSecretManager() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- createSeeker(CellComparator, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- createSeeker(CellComparator, HFileBlockDecodingContext) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder
-
Create a HFileBlock seeker which find KeyValues within a block.
- createSeeker(CellComparator, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- createSeeker(CellComparator, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder
-
- createSeeker(CellComparator, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- createSeeker(CellComparator, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexCodecV1
-
- createServer(MetricsRegionServerWrapper) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Given a wrapper create a MetricsRegionServerSource.
- createServer(MetricsRegionServerWrapper) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- createServerManager(MasterServices) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createServerSocket(int) - 类 中的方法org.apache.hadoop.hbase.SslRMIServerSocketFactorySecure
-
- createSetData(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Set data into node creating node if it doesn't yet exist.
- createShortCircuitConnection(Configuration, ExecutorService, User, ServerName, AdminProtos.AdminService.BlockingInterface, ClientProtos.ClientService.BlockingInterface) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
Creates a short-circuit connection that can bypass the RPC layer (serialization,
deserialization, networking, etc..) when talking to a local server.
- CreateSnapshot - org.apache.hadoop.hbase.snapshot中的类
-
This is a command line class that will snapshot a given table.
- CreateSnapshot() - 类 的构造器org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- createSnapshotDesc(SnapshotProtos.SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- createSnapshotType(SnapshotProtos.SnapshotDescription.Type) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Creates
SnapshotType from the type of
HBaseProtos.SnapshotDescription
- createSocket(String, int) - 类 中的方法org.apache.hadoop.hbase.SslRMIClientSocketFactorySecure
-
- createSplitsDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Create the region splits directory.
- createStartKeyFromRow(byte[], ScanInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- createStoreEngine(HStore, Configuration, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the mob store engine.
- createStoreEngine(HStore, Configuration, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Creates the store engine configured for the given Store.
- createStoreFileAndReader(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createStoreFlusher(Configuration, HStore) - 类 中的方法org.apache.hadoop.hbase.mob.MobStoreEngine
-
- createStoreFlusher(Configuration, HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createSubCellFlatMap(int, int, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellArrayMap
-
- createSubCellFlatMap(int, int, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkMap
-
- createSubCellFlatMap(int, int, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapred.RowCounter
-
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CellCounter
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Export
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable
-
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.RowCounter
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
Sets up the actual job.
- createSystemTable(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createSystemTable(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a system table using the given table definition.
- createTable(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates a new table.
- createTable(TableDescriptor, byte[], byte[], int) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates a new table with the specified number of regions.
- createTable(TableDescriptor, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates a new table with an initial set of empty regions defined by the specified split keys.
- createTable(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Creates a new table.
- createTable(TableDescriptor, byte[], byte[], int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Creates a new table with the specified number of regions.
- createTable(TableDescriptor, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Creates a new table with an initial set of empty regions defined by the specified split keys.
- createTable(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createTable(TableDescriptor, byte[], byte[], int) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createTable(TableDescriptor, byte[][]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createTable(RpcController, MasterProtos.CreateTableRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- createTable(TableDescriptor, byte[][], long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createTable(RpcController, MasterProtos.CreateTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createTable(TableDescriptor, byte[][], long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a table using the given table definition.
- createTable(String, MetricsTableWrapperAggregate) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Create a MetricsTableSource from a MetricsTableWrapper.
- createTable(String, MetricsTableWrapperAggregate) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- createTable(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
Creates a new table.
- createTableAsync(TableDescriptor, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Creates a new table but does not block and wait for it to come online.
- createTableAsync(TableDescriptor, byte[][]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- createTableDescriptor(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create new TableDescriptor in HDFS.
- createTableDescriptor(TableDescriptor, boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create new TableDescriptor in HDFS.
- createTableDescriptorForTableDirectory(Path, TableDescriptor, boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create a new TableDescriptor in HDFS in the specified table directory.
- createTempName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Generate a unique temporary Path.
- createTempName(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Generate a unique temporary Path.
- createTopReference(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- createTreeSet() - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- createUnescapdArgument(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Removes the single quote escaping a single quote - thus it returns an unescaped argument
- createUserForTesting(Configuration, String, String[]) - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Generates a new User instance specifically for use in test code.
- createUserForTesting(Configuration, String, String[]) - 类 中的静态方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- createValue() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- createVisibilityExpTags(String) - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- createVisibilityExpTags(String) - 接口 中的方法org.apache.hadoop.hbase.mapreduce.VisibilityExpressionResolver
-
Convert visibility expression into tags to be serialized.
- createWAL() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- createWAL() - 类 中的方法org.apache.hadoop.hbase.wal.AsyncFSWALProvider
-
- createWAL() - 类 中的方法org.apache.hadoop.hbase.wal.FSHLogProvider
-
- createWALWriter(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a writer for the WAL.
- createWALWriter(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
If you already have a WALFactory, you should favor the instance method.
- createWithoutViolation(RegionServerServices, TableName, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcementFactory
-
- createWithParents(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified node and all parent nodes required for it to exist.
- createWithParents(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Creates the specified node and all parent nodes required for it to exist.
- createWriter(Configuration, FileSystem, ColumnFamilyDescriptor, String, Path, long, Compression.Algorithm, String, CacheConfig, Encryption.Context, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the mob file in temp directory.
- createWriter(Configuration, FileSystem, ColumnFamilyDescriptor, String, Path, long, Compression.Algorithm, byte[], CacheConfig, Encryption.Context, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the mob file in temp directory.
- createWriter(Configuration, FileSystem, ColumnFamilyDescriptor, MobFileName, Path, long, Compression.Algorithm, CacheConfig, Encryption.Context, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the mob file in temp directory.
- createWriter(Configuration, FileSystem, ColumnFamilyDescriptor, Path, long, Compression.Algorithm, CacheConfig, Encryption.Context, ChecksumType, int, int, BloomType, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Creates a writer for the mob file in temp directory.
- createWriter() - 接口 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter.WriterFactory
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.BoundaryStripeFlushRequest
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.SizeStripeFlushRequest
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- createWriter(Configuration, FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.wal.FSHLogProvider
-
Public because of FSHLog.
- createWriter(Configuration, FileSystem, Path, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.wal.FSHLogProvider
-
Public because of FSHLog.
- createWriter(Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
- createWriterInstance(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- createWriterInstance(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- createWriterInstance(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
This method allows subclasses to inject different writers without having to extend other
methods like rollWriter().
- createWriterInTmp(Date, long, Compression.Algorithm, byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the writer for the mob file in temp directory.
- createWriterInTmp(String, Path, long, Compression.Algorithm, byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the writer for the mob file in temp directory.
- createWriterInTmp(MobFileName, Path, long, Compression.Algorithm, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Creates the writer for the mob file in temp directory.
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- CREDENTIALS_LOCATION - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- CRLF - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- CRYPTO_ALTERNATE_KEY_ALGORITHM_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the name of the alternate cipher algorithm for the cluster, a string
- CRYPTO_CIPHERPROVIDER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the crypto algorithm provider, a class name
- CRYPTO_KEY_ALGORITHM_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the algorithm used for creating jks key, a string
- CRYPTO_KEYPROVIDER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the crypto key provider, a class name
- CRYPTO_KEYPROVIDER_PARAMETERS_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the crypto key provider parameters
- CRYPTO_MASTERKEY_ALTERNATE_NAME_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the name of the alternate master key for the cluster, a string
- CRYPTO_MASTERKEY_NAME_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the name of the master key for the cluster, a string
- CRYPTO_WAL_ALGORITHM_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the algorithm to use when encrypting the WAL, a string
- CRYPTO_WAL_KEY_NAME_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the name of the master WAL encryption key for the cluster, a string
- CryptoAES - org.apache.hadoop.hbase.io.crypto.aes中的类
-
AES encryption and decryption.
- CryptoAES(String, Properties, byte[], byte[], byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.io.crypto.aes.CryptoAES
-
- CryptoAESUnwrapHandler - org.apache.hadoop.hbase.security中的类
-
Unwrap messages with Crypto AES.
- CryptoAESUnwrapHandler(CryptoAES) - 类 的构造器org.apache.hadoop.hbase.security.CryptoAESUnwrapHandler
-
- CryptoAESWrapHandler - org.apache.hadoop.hbase.security中的类
-
wrap messages with Crypto AES.
- CryptoAESWrapHandler(CryptoAES) - 类 的构造器org.apache.hadoop.hbase.security.CryptoAESWrapHandler
-
- CryptoCipherProvider - org.apache.hadoop.hbase.io.crypto中的类
-
The default cipher provider.
- cryptoContext - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- CSLMImmutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
- CSLMImmutableSegment(Segment) - 类 的构造器org.apache.hadoop.hbase.regionserver.CSLMImmutableSegment
-
------------------------------------------------------------------------
Copy C-tor to be used when new CSLMImmutableSegment is being built from a Mutable one.
- csm - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ctx - 类 中的变量org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- cur_worker_name - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- curBlock - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- curBuf - 类 中的变量org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- CurCall - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
This is set to Call object before Handler invokes an RPC and ybdie
after the call returns.
- current() - 接口 中的方法org.apache.hadoop.hbase.CellScanner
-
- current() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- current - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
The current sub-scanner, i.e. the one that contains the next key/value
to return to the client.
- current - 类 中的变量org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- CURRENT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- currentClientHasMinimumVersion(int, int) - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
- currentComponent - 类 中的变量org.apache.hadoop.hbase.util.ConcatenatedLists.Iterator
-
- currentQueueLimit - 类 中的变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- currentRegion - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- currentRow - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Row the query is on
- currentRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- currentTime() - 类 中的方法org.apache.hadoop.hbase.util.DefaultEnvironmentEdge
-
Returns the currentTime.
- currentTime() - 接口 中的方法org.apache.hadoop.hbase.util.EnvironmentEdge
-
Returns the currentTime.
- currentTime() - 类 中的静态方法org.apache.hadoop.hbase.util.EnvironmentEdgeManager
-
- currentTime() - 类 中的方法org.apache.hadoop.hbase.util.IncrementingEnvironmentEdge
-
Returns the currentTime.
- currentTime() - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- cursor() - 接口 中的方法org.apache.hadoop.hbase.client.AdvancedScanResultConsumer.ScanController
-
Get the scan cursor if available.
- Cursor - org.apache.hadoop.hbase.client中的类
-
- cursor - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- CUSTOM_CALLER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- CUSTOM_CONTROLLER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcControllerFactory
-
Custom RPC Controller factory allows frameworks to change the RPC controller.
- CUSTOM_FILTERS - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- CUSTOM_RPC_CLIENT_IMPL_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcClientFactory
-
- CUSTOM_RPC_SERVER_IMPL_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServerFactory
-
- CUSTOM_TAG_TYPE_RANGE - 接口 中的静态变量org.apache.hadoop.hbase.Tag
-
Custom tags if created are suggested to be above this range.
- CustomizedScanInfoBuilder - org.apache.hadoop.hbase.regionserver中的类
-
Helper class for CP hooks to change max versions and TTL.
- CustomizedScanInfoBuilder(ScanInfo) - 类 的构造器org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- D - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'D'
- DaemonThreadFactory - org.apache.hadoop.hbase中的类
-
Thread factory that creates daemon threads
- DaemonThreadFactory(String) - 类 的构造器org.apache.hadoop.hbase.DaemonThreadFactory
-
- DamagedWALException - org.apache.hadoop.hbase.regionserver.wal中的异常错误
-
Thrown when a failed append or sync on a WAL.
- DamagedWALException() - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.wal.DamagedWALException
-
- DamagedWALException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.wal.DamagedWALException
-
- DamagedWALException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.wal.DamagedWALException
-
- DamagedWALException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.wal.DamagedWALException
-
- data - 类 中的变量org.apache.hadoop.hbase.regionserver.Chunk
-
Actual underlying data
- DATA_BLOCK_ENCODING - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DATA_BLOCK_ENCODING - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DATA_BLOCK_ENCODING - 接口 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
Type of encoding used for data blocks in HFile.
- DATA_FILE_UMASK_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
File permission umask to use when creating hbase data files
- DATA_MANIFEST_NAME - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- DATA_SIZE_WITHOUT_WAL - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- DATA_SIZE_WITHOUT_WAL_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- dataAvailable - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.PipelineController
-
- DATABLOCK_ENCODING_OVERRIDE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- DATABLOCK_READ_COUNT - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
- DataBlockEncoder - org.apache.hadoop.hbase.io.encoding中的接口
-
Encoding of KeyValue.
- DataBlockEncoder.EncodedSeeker - org.apache.hadoop.hbase.io.encoding中的接口
-
An interface which enable to seek while underlying data is encoded.
- DataBlockEncoding - org.apache.hadoop.hbase.io.encoding中的枚举
-
Provide access to all data block encoding algorithms.
- DataType<T> - org.apache.hadoop.hbase.types中的接口
-
DataType is the base class for all HBase data types.
- date - 类 中的静态变量org.apache.hadoop.hbase.Version
-
- DateTieredMultiFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
class for cell sink that separates the provided cells into multiple files for date tiered
compaction.
- DateTieredMultiFileWriter(List<Long>, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.DateTieredMultiFileWriter
-
- DateTieredStoreEngine - org.apache.hadoop.hbase.regionserver中的类
-
HBASE-15400 This store engine allows us to store data in date tiered layout with exponential
sizing so that the more recent data has more granularity.
- DateTieredStoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.DateTieredStoreEngine
-
- DAY_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Seconds in a day, hour and minute
- DEAD_REGION_SERVERS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- DEAD_REGION_SERVERS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- DeadServer - org.apache.hadoop.hbase.master中的类
-
Class to hold dead servers list and utility querying dead server list.
- DeadServer() - 类 的构造器org.apache.hadoop.hbase.master.DeadServer
-
- debug() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- debugLsr(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
ls -r for debugging purposes
- debugLsr(Configuration, Path, HBaseFsck.ErrorReporter) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
ls -r for debugging purposes
- DEC_BLOCKCACHE_TUNING_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- DEC_BLOCKCACHE_TUNING_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- DEC_MEMSTORE_TUNING_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- DEC_MEMSTORE_TUNING_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- decGlobalMemStoreSize(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- DecimalStringSplit() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter.DecimalStringSplit
-
- decMemStoreSize(long, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- decMemStoreSize(MemStoreSize) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- decode(ChannelHandlerContext, ByteBuf, List<Object>) - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcFrameDecoder
-
- decode(ChannelHandlerContext, ByteBuf, List<Object>) - 类 中的方法org.apache.hadoop.hbase.security.SaslChallengeDecoder
-
- decode(PositionedByteRange) - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Read an instance of T from the buffer src.
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedBlob
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedBlobVar
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat32
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat64
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt16
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt32
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt64
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt8
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedNumeric
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedString
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.PBCell
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- decode(PositionedByteRange, int) - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
Read a byte[] from the buffer src.
- decode(PositionedByteRange, int) - 类 中的方法org.apache.hadoop.hbase.types.RawBytesFixedLength
-
Read a byte[] from the buffer src.
- decode(PositionedByteRange, int) - 类 中的方法org.apache.hadoop.hbase.types.RawBytesTerminated
-
Read a byte[] from the buffer src.
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- decode(PositionedByteRange, int) - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
Read the field at index.
- decode(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
- DECODE - 类 中的静态变量org.apache.hadoop.hbase.util.Base64
-
Specify decoding.
- decode(byte[], int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Very low-level access to decoding ASCII characters in the form of a byte
array.
- decode(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Decodes data from Base64 notation, automatically detecting gzip-compressed
data and decompressing it.
- decode(String, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Decodes data from Base64 notation, automatically detecting gzip-compressed
data and decompressing it.
- decode4to3(byte[], int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Decodes four bytes from array source and writes the resulting
bytes (up to three of them) to destination.
- decodeA(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
Read an instance of the first type parameter from buffer src.
- decodeAtPosition(int) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- decodeB(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
Read an instance of the second type parameter from buffer src.
- decodeBlobCopy(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a Blob value, byte-for-byte copy.
- decodeBlobVar(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a blob value that was encoded using BlobVar encoding.
- decodeByte(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt8
-
Read a byte value from the buffer src.
- decodeByte(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
Read a byte value from the buffer buff.
- decodeC(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Union3
-
Read an instance of the third type parameter from buffer src.
- decodeD(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Union4
-
Read an instance of the fourth type parameter from buffer src.
- decodeDouble(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat64
-
Read a double value from the buffer src.
- decodeDouble(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedNumeric
-
Read a double value from the buffer src.
- decodeDouble(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
Read a double value from the buffer buff.
- decodeFileToFile(String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Reads infile and decodes it to outfile.
- decodeFirst() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- decodeFloat(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat32
-
Read a float value from the buffer dst.
- decodeFloat(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
Read a float value from the buffer buff.
- decodeFloat32(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a 32-bit floating point value using the fixed-length encoding.
- decodeFloat64(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a 64-bit floating point value using the fixed-length encoding.
- decodeFromFile(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Convenience method for reading a base64-encoded file and decoding it.
- decodeInt(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt32
-
Read an int value from the buffer src.
- decodeInt(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
Read an int value from the buffer buff.
- decodeInt16(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode an int16 value.
- decodeInt32(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode an int32 value.
- decodeInt64(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode an int64 value.
- decodeInt8(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode an int8 value.
- decodeKeyValues(DataInputStream, HFileBlockDecodingContext) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder
-
Decode.
- decodeKeyValues(DataInputStream, HFileBlockDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexCodecV1
-
- decodeLong(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt64
-
Read a long value from the buffer src.
- decodeLong(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedNumeric
-
Read a long value from the buffer src.
- decodeLong(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
Read a long value from the buffer buff.
- decodeMemstoreTS - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- decodeNext() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- decodeNumericAsBigDecimal(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a
BigDecimal value from the variable-length encoding.
- decodeNumericAsDouble(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a primitive double value from the Numeric encoding.
- decodeNumericAsLong(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a primitive long value from the Numeric encoding.
- decodeShort(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt16
-
Read a short value from the buffer src.
- decodeShort(byte[], int) - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
Read a short value from the buffer buff.
- decodeString(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Decode a String value.
- decodeTags() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- decodeToFile(String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Convenience method for decoding data to a file.
- decodeToObject(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Attempts to decode Base64 data and deserialize a Java Object within.
- decodingCtx - 类 中的变量org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder.AbstractEncodedSeeker
-
- decommissionRegionServers(List<ServerName>, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Mark region server(s) as decommissioned to prevent additional regions from getting
assigned to them.
- decommissionRegionServers(List<ServerName>, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Mark region server(s) as decommissioned to prevent additional regions from getting
assigned to them.
- decommissionRegionServers(List<ServerName>, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- decommissionRegionServers(RpcController, MasterProtos.DecommissionRegionServersRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- decommissionRegionServers(List<ServerName>, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Mark region server(s) as decommissioned (previously called 'draining') to prevent additional
regions from getting assigned to them.
- decommissionRegionServers(RpcController, MasterProtos.DecommissionRegionServersRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- decorateMasterConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
This method modifies the master's configuration in order to inject replication-related features
- decorateTask(Runnable, RunnableScheduledFuture<V>) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl
-
- decorateTask(Callable<V>, RunnableScheduledFuture<V>) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl
-
- decrement() - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- decrementCompactionsQueuedCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- decrypt(byte[], int, InputStream, int, Decryptor) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Decrypt a block of ciphertext read in from a stream with the given
cipher and context
The decryptor's state will be finalized.
- decrypt(byte[], int, InputStream, int, Encryption.Context, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Decrypt a block of ciphertext from a stream given a context and IV
- decrypt(OutputStream, InputStream, int, Decryptor) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Decrypt a stream of ciphertext given a decryptor
- decrypt(OutputStream, InputStream, int, Encryption.Context, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Decrypt a stream of ciphertext given a context and IV
- Decryptor - org.apache.hadoop.hbase.io.crypto中的接口
-
Decryptors apply a cipher to an InputStream to recover plaintext.
- decryptWithSubjectKey(OutputStream, InputStream, int, String, Configuration, Cipher, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Decrypts a block of ciphertext with the symmetric key resolved for the given subject
- decScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- decScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- decScannerCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Called when closing a scanner on the data of this MemStoreLAB
- decScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
Called when closing a scanner on the data of this MemStoreLAB
- decScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- decTaskCounters(Collection<byte[]>, ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.RequestController
-
Decrement the counter if a task is accomplished.
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MutableSegment
-
- DEEP_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.Segment
-
- DEEP_OVERHEAD_CAM - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CellArrayImmutableSegment
-
- DEEP_OVERHEAD_CCM - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- DEEP_OVERHEAD_CSLM - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CSLMImmutableSegment
-
- deepClone() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- deepClone() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Does a deep copy of the contents to a new memory area and returns it as a new cell.
- deepClone() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- deepClone() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- deepClone() - 类 中的方法org.apache.hadoop.hbase.NoTagsByteBufferKeyValue
-
- deepClone() - 类 中的方法org.apache.hadoop.hbase.NoTagsKeyValue
-
- deepClone(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Deep clones the given cell if the cell supports deep cloning
- deepClone() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- deepCopy() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- deepCopy() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Create a new ByteRange with new backing byte[] containing a copy
of the content from this range's window.
- deepCopy() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- deepCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- deepCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- deepCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- deepCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- deepCopySubRangeTo(int, int, byte[], int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- deepCopySubRangeTo(int, int, byte[], int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Wrapper for System.arraycopy.
- deepCopyTo(byte[], int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- deepCopyTo(byte[], int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Wrapper for System.arraycopy.
- deepCopyToNewArray() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- deepCopyToNewArray() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Instantiate a new byte[] with exact length, which is at least 24 bytes +
length.
- DEFAULT_ABORT_ON_ERROR - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- DEFAULT_AGGREGATION_WINDOW - 类 中的静态变量org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- DEFAULT_ASYNC_DFS_OUTPUT_CREATE_MAX_RETRIES - 类 中的静态变量org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- DEFAULT_ASYNC_WAL_USE_SHARED_EVENT_LOOP - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- DEFAULT_ASYNC_WAL_WAIT_ON_SHUTDOWN_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- DEFAULT_ATTRIBUTES_COLUMN_INDEX - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- DEFAULT_BLOCK_STORAGE_POLICY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- DEFAULT_BLOCKCACHE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to use a block cache or not.
- DEFAULT_BLOCKCACHE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_BLOCKING_STOREFILE_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- DEFAULT_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default size of blocks in files stored to the filesytem (hfiles).
- DEFAULT_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default block size for an HFile.
- DEFAULT_BLOOMFILTER - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether or not to use bloomfilters.
- DEFAULT_BLOOMFILTER - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_BUCKET_CACHE_WRITER_QUEUE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_BUCKET_CACHE_WRITER_THREADS - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Defaults for Bucket cache
- DEFAULT_BUFFER_SIZE - 类 中的静态变量org.apache.hadoop.hbase.io.ByteBufferPool
-
- DEFAULT_BUFFER_SIZE - 类 中的静态变量org.apache.hadoop.hbase.util.ByteBufferArray
-
- DEFAULT_BYTES_PER_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
The number of bytes per checksum.
- DEFAULT_BYTES_PER_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileContext
-
- DEFAULT_BYTES_PER_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileContextBuilder
-
- DEFAULT_CACHE_BLOOMS_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to cache bloom filter blocks on write if block
caching is enabled.
- DEFAULT_CACHE_BLOOMS_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_CACHE_BLOOMS_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_CACHE_DATA_COMPRESSED - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_CACHE_DATA_IN_L1 - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_CACHE_DATA_ON_READ - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_CACHE_DATA_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to cache data blocks on write if block caching
is enabled.
- DEFAULT_CACHE_DATA_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_CACHE_DATA_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_CACHE_FLUSH_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Default interval for the memstore flush
- DEFAULT_CACHE_INDEX_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to cache index blocks on write if block caching
is enabled.
- DEFAULT_CACHE_INDEX_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_CACHE_INDEXES_ON_WRITE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_CALL_QUEUE_SIZE_HARD_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- DEFAULT_CELL_TTL_COLUMN_INDEX - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- DEFAULT_CELL_VISIBILITY_COLUMN_INDEX - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- DEFAULT_CLIENT_ZOOKEEPER_OBSERVER_MODE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Assuming client zk not in observer mode and master need to synchronize information
- DEFAULT_CLUSTER_DISTRIBUTED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for cluster distributed mode
- DEFAULT_CLUSTER_ID - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default cluster ID, cannot be used to identify a cluster so a key with
this value means it wasn't meant for replication.
- DEFAULT_CODEC_CLASS - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- DEFAULT_COMPACTCHECKER_INTERVAL_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- DEFAULT_COMPACTION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Constant that denotes whether the table is compaction enabled by default
- DEFAULT_COMPACTION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_COMPACTION_POLICY_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- DEFAULT_COMPACTOR_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- DEFAULT_COMPRESS_TAGS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default compress tags along with any type of DataBlockEncoding.
- DEFAULT_COMPRESS_TAGS - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_COMPRESSION - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default compression type.
- DEFAULT_COMPRESSION - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_COMPRESSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Default compression name: none.
- DEFAULT_COMPRESSION_ALGORITHM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Default compression: none.
- DEFAULT_CONCURRENCY_LEVEL - 类 中的静态变量org.apache.hadoop.hbase.util.ObjectPool
-
The default concurrency level,
used when not otherwise specified in a constructor.
- DEFAULT_COPROCESSORS_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- DEFAULT_DATA_BLOCK_ENCODING - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default data block encoding algorithm.
- DEFAULT_DATA_BLOCK_ENCODING - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_DELEGATE_PROVIDER - 类 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- DEFAULT_DFS_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DEFAULT_DFS_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_ENABLE_CLIENT_BACKPRESSURE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_ENCODE_ON_DISK - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_END_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.rest.RowSpec
-
- DEFAULT_EVICT_BLOCKS_ON_CLOSE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to evict cached blocks from the blockcache on
close.
- DEFAULT_EVICT_BLOCKS_ON_CLOSE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_EVICT_ON_CLOSE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_EVICT_REMAIN_RATIO - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_FLUSH_PER_CHANGES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- DEFAULT_GROUP - 类 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- DEFAULT_HBASE_BALANCER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for the balancer period
- DEFAULT_HBASE_CELLS_SCANNED_PER_HEARTBEAT_CHECK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- DEFAULT_HBASE_CLIENT_MAX_PERREGION_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_MAX_PERSERVER_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_MAX_TOTAL_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_OPERATION_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default HBase client operation timeout, which is tantamount to a blocking call
- DEFAULT_HBASE_CLIENT_PAUSE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_PERSERVER_REQUESTS_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_RETRIES_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_SCANNER_ASYNC_PREFETCH - 类 中的静态变量org.apache.hadoop.hbase.client.Scan
-
- DEFAULT_HBASE_CLIENT_SCANNER_CACHING - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_SCANNER_MAX_RESULT_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum number of bytes returned when calling a scanner's next method.
- DEFAULT_HBASE_CLIENT_SCANNER_TIMEOUT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_CLIENT_SERVERSIDE_RETRIES_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_HTTP_STATIC_USER - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- DEFAULT_HBASE_JETTY_LOGS_SERVE_ALIASES - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- DEFAULT_HBASE_MASTER_BALANCER_MAX_RIT_PERCENT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for the max percent of regions in transition
- DEFAULT_HBASE_MASTER_CLUSTER_SCHEMA_OPERATION_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hbase.master.ClusterSchema
-
Default operation timeout in milliseconds.
- DEFAULT_HBASE_MASTER_WAIT_ON_SERVICE_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.master.HMaster
-
- DEFAULT_HBASE_META_BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_META_SCANNER_CACHING - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_META_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_REGIONSERVER_MINIBATCH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- DEFAULT_HBASE_RPC_SHORTOPERATION_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_RPC_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_SERVER_PAUSE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HBASE_SERVER_SCANNER_MAX_RESULT_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum number of bytes returned when calling a scanner's next method.
- DEFAULT_HEALTH_FAILURE_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HEALTH_SCRIPT_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HEAP_OCCUPANCY_HIGH_WATERMARK - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HEAP_OCCUPANCY_LOW_WATERMARK - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HOST - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
default host address
- DEFAULT_HREGION_COLUMNFAMILY_FLUSH_SIZE_LOWER_BOUND_MIN - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- DEFAULT_HREGION_EDITS_REPLAY_SKIP_ERRORS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_HREGION_MEMSTORE_BLOCK_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for hbase.hregion.memstore.block.multiplier
- DEFAULT_HSTORE_OPEN_AND_CLOSE_THREADS_MAX - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The default number for the max number of threads used for opening and
closing stores or store files in parallel
- DEFAULT_IN_MEMORY - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for whether to try and serve this column family from memory
or not.
- DEFAULT_IN_MEMORY - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_IN_MEMORY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_INITIAL_CAPACITY - 类 中的静态变量org.apache.hadoop.hbase.util.ObjectPool
-
The default initial capacity,
used when not otherwise specified in a constructor.
- DEFAULT_KEEP_DELETED - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default setting for preventing deleted from being collected immediately.
- DEFAULT_KEEP_DELETED - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_KEYVALUE_SEPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.Strings
-
- DEFAULT_LISTEN_PORT - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- DEFAULT_LOCAL_DIR - 类 中的静态变量org.apache.hadoop.hbase.util.ClassLoaderBase
-
- DEFAULT_MAJOR_COMPACTION_JITTER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_MAJOR_COMPACTION_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_MASTER_HANLDER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- DEFAULT_MASTER_INFOPORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
default port for master web api
- DEFAULT_MASTER_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
default port that the master listens on
- DEFAULT_MASTER_TYPE_BACKUP - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
by default every master is a possible primary master unless the conf explicitly overrides it
- DEFAULT_MATH_CONTEXT - 类 中的静态变量org.apache.hadoop.hbase.util.OrderedBytes
-
- DEFAULT_MAX - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- DEFAULT_MAX_AGE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- DEFAULT_MAX_BACKOFF - 类 中的静态变量org.apache.hadoop.hbase.client.backoff.ExponentialClientBackoffPolicy
-
- DEFAULT_MAX_BLOCKED_REQUESTS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- DEFAULT_MAX_CALLQUEUE_LENGTH_PER_HANDLER - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
How many calls/handler are allowed in the queue.
- DEFAULT_MAX_CALLQUEUE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- DEFAULT_MAX_CELL_SIZE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- DEFAULT_MAX_FILE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default maximum file size
- DEFAULT_MAX_REQUEST_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
Default value for above params
- DEFAULT_MAX_RESUBMIT - 类 中的静态变量org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- DEFAULT_MAX_SPLITTERS - 接口 中的静态变量org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
- DEFAULT_MAX_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default number of versions of a record to keep.
- DEFAULT_MAX_WAIT_TIME - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
By default, wait 300 seconds for a snapshot to complete
- DEFAULT_MEMSTORE_FLUSH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Constant that denotes the maximum default size of the memstore in bytes after which
the contents are flushed to the store files.
- DEFAULT_MEMSTORE_FLUSH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_MEMSTORE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- DEFAULT_MEMSTORE_SIZE_LOWER_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- DEFAULT_META_REPLICA_NUM - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_MIN_AGE_MS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- DEFAULT_MIN_CLIENT_REQUEST_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- DEFAULT_MIN_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default is not to keep a minimum of versions.
- DEFAULT_MIN_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_MOB_CACHE_EVICT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_CLEANER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_COMPACT_PARTITION_POLICY - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DEFAULT_MOB_COMPACT_PARTITION_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_MOB_COMPACTION_BATCH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_COMPACTION_CHORE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_COMPACTION_MERGEABLE_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_COMPACTION_THREADS_MAX - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_DELFILE_MAX_COUNT - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_FILE_CACHE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- DEFAULT_MOB_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DEFAULT_MOB_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_MOVE_RETRIES_MAX - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- DEFAULT_MOVE_WAIT_MAX - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- DEFAULT_NAMESPACE - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- DEFAULT_NAMESPACE_NAME - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
Default namespace name.
- DEFAULT_NAMESPACE_NAME_STR - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- DEFAULT_NEW_VERSION_BEHAVIOR - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DEFAULT_NEW_VERSION_BEHAVIOR - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_NORMALIZATION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Constant that denotes whether the table is normalized by default.
- DEFAULT_NORMALIZATION_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_PREFETCH_BLOCKS_ON_OPEN - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DEFAULT_PREFETCH_BLOCKS_ON_OPEN - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_PREFETCH_ON_OPEN - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- DEFAULT_READONLY - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Constant that denotes whether the table is READONLY by default and is false
- DEFAULT_READONLY - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_REASSIGN_WAIT_INTERVAL - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- DEFAULT_REGION_GROUPING_STRATEGY - 类 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- DEFAULT_REGION_MEMSTORE_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- DEFAULT_REGION_MEMSTORE_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_REGION_REPLICA_WAIT_FOR_PRIMARY_FLUSH - 类 中的静态变量org.apache.hadoop.hbase.client.RegionReplicaUtil
-
- DEFAULT_REGION_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- DEFAULT_REGION_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DEFAULT_REGION_SERVER_HANDLER_ABORT_ON_ERROR_PERCENT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_REGION_SERVER_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_REGION_SERVER_HIGH_PRIORITY_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_REGION_SERVER_REGION_SPLIT_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- DEFAULT_REGION_SERVER_REPLICATION_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_REGIONSERVER_INFOPORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
default port for region server web api
- DEFAULT_REGIONSERVER_METRICS_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_REGIONSERVER_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default port region server listens on.
- DEFAULT_REPLICA_ID - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
- DEFAULT_REPLICATION_SCOPE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default scope.
- DEFAULT_REPLICATION_SCOPE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_SEPARATE_OLDLOGDIR - 类 中的静态变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- DEFAULT_SEPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.Strings
-
- DEFAULT_SERVERSTART_WAIT_MAX - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- DEFAULT_SLEEP_BEFORE_RERUN - 类 中的静态变量org.apache.hadoop.hbase.util.HBaseFsck
-
- DEFAULT_SLOW_SYNC_TIME_MS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- DEFAULT_SNAPSHOT_RESTORE_FAILSAFE_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_SNAPSHOT_RESTORE_TAKE_FAILSAFE_SNAPSHOT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_SOCKET_TIMEOUT_CONNECT - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- DEFAULT_SOCKET_TIMEOUT_READ - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- DEFAULT_SOCKET_TIMEOUT_WRITE - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- DEFAULT_START_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.rest.RowSpec
-
- DEFAULT_STATUS_MULTICAST_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_STATUS_MULTICAST_BIND_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_STATUS_MULTICAST_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_STATUS_MULTICAST_PUBLISHER_BIND_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_STATUS_PUBLISH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- DEFAULT_STATUS_PUBLISHER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- DEFAULT_STORE_FLUSHER_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- DEFAULT_TEMPORARY_HDFS_DIRECTORY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_THREAD_WAKE_FREQUENCY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for thread wake frequency
- DEFAULT_TIME_LAG - 类 中的静态变量org.apache.hadoop.hbase.util.HBaseFsck
-
- DEFAULT_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- DEFAULT_TIMESTAMP_COLUMN_INDEX - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- DEFAULT_TTL - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Default time to live of cell contents.
- DEFAULT_TTL - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_UNASSIGNED_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.master.SplitLogManager
-
- DEFAULT_USE_META_REPLICAS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_USER_COPROCESSORS_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- DEFAULT_VERSION_FILE_WRITE_ATTEMPTS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for how often we should try to write a version file, before failing
- DEFAULT_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- DEFAULT_WAL_BATCH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- DEFAULT_WAL_HSYNC - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- DEFAULT_WAL_STORAGE_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
By default we defer the WAL storage policy to HDFS
- DEFAULT_WARN_RESPONSE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- DEFAULT_WARN_RESPONSE_TIME - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- DEFAULT_ZK_RETRIES - 类 中的静态变量org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- DEFAULT_ZK_SESSION_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default value for ZooKeeper session timeout
- DEFAULT_ZOOKEEPER_CLIENT_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default client port that the zookeeper listens on
- DEFAULT_ZOOKEEPER_MAX_CLIENT_CNXNS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default limit on concurrent client-side zookeeper connections
- DEFAULT_ZOOKEEPER_ZNODE_PARENT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_ZOOKEPER_CLIENT_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_ZOOKEPER_MAX_CLIENT_CNXNS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- DEFAULT_ZOOKEPER_RECOVERABLE_WAITIME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- DefaultCipherProvider - org.apache.hadoop.hbase.io.crypto中的类
-
The default cipher provider.
- defaultContexts - 类 中的变量org.apache.hadoop.hbase.http.HttpServer
-
- DefaultEnvironmentEdge - org.apache.hadoop.hbase.util中的类
-
Default implementation of an environment edge.
- DefaultEnvironmentEdge() - 类 的构造器org.apache.hadoop.hbase.util.DefaultEnvironmentEdge
-
- DefaultMemStore - org.apache.hadoop.hbase.regionserver中的类
-
The MemStore holds in-memory modifications to the Store.
- DefaultMemStore() - 类 的构造器org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Default constructor.
- DefaultMemStore(Configuration, CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Constructor.
- DefaultMobStoreCompactor - org.apache.hadoop.hbase.mob中的类
-
Compact passed set of files in the mob-enabled column family.
- DefaultMobStoreCompactor(Configuration, HStore) - 类 的构造器org.apache.hadoop.hbase.mob.DefaultMobStoreCompactor
-
- DefaultMobStoreFlusher - org.apache.hadoop.hbase.mob中的类
-
An implementation of the StoreFlusher.
- DefaultMobStoreFlusher(Configuration, HStore) - 类 的构造器org.apache.hadoop.hbase.mob.DefaultMobStoreFlusher
-
- DefaultOperationQuota - org.apache.hadoop.hbase.quotas中的类
-
- DefaultOperationQuota(QuotaLimiter...) - 类 的构造器org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- DefaultOperationQuota(List<QuotaLimiter>) - 类 的构造器org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
NOTE: The order matters.
- DefaultStoreEngine - org.apache.hadoop.hbase.regionserver中的类
-
Default StoreEngine creates the default compactor, policy, and store file manager, or
their derivatives.
- DefaultStoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- DefaultStoreFlusher - org.apache.hadoop.hbase.regionserver中的类
-
Default implementation of StoreFlusher.
- DefaultStoreFlusher(Configuration, HStore) - 类 的构造器org.apache.hadoop.hbase.regionserver.DefaultStoreFlusher
-
- DefaultViolationPolicyEnforcement - org.apache.hadoop.hbase.quotas.policies中的类
-
- DefaultViolationPolicyEnforcement() - 类 的构造器org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- DefaultVisibilityExpressionResolver - org.apache.hadoop.hbase.mapreduce中的类
-
This implementation creates tags by expanding expression using label ordinal.
- DefaultVisibilityExpressionResolver() - 类 的构造器org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- DefaultVisitorBase() - 类 的构造器org.apache.hadoop.hbase.MetaTableAccessor.DefaultVisitorBase
-
- DEFER_TO_HDFS_STORAGE_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
"NONE" is not a valid storage policy and means we defer the policy to HDFS.
- defineFilter(ServletContextHandler, String, String, Map<String, String>, String[]) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
Define a filter for a context and set up default url mappings.
- defMasterRMIRegistryPort - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- defRegionserverRMIRegistryPort - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- DelayingRunner - org.apache.hadoop.hbase.client中的类
-
A wrapper for a runnable for a group of actions for a single regionserver.
- DelayingRunner(long, Map.Entry<byte[], List<Action>>) - 类 的构造器org.apache.hadoop.hbase.client.DelayingRunner
-
- delColMap - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- DELEGATE_PROVIDER - 类 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
delegate provider for WAL creation/roll/close
- delegatee - 类 中的变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- delegatee - 类 中的变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DelegatingHBaseRpcController - org.apache.hadoop.hbase.ipc中的类
-
- DelegatingHBaseRpcController(HBaseRpcController) - 类 的构造器org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- delete(Delete) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Deletes the specified cells/row.
- delete(List<Delete>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Deletes the specified cells/rows in bulk.
- Delete - org.apache.hadoop.hbase.client中的类
-
Used to perform Delete operations on a single row.
- Delete(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
Create a Delete operation for the specified row.
- Delete(byte[], long) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
Create a Delete operation for the specified row and timestamp.
- Delete(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
Create a Delete operation for the specified row and timestamp.
- Delete(byte[], int, int, long) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
Create a Delete operation for the specified row and timestamp.
- Delete(Delete) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
- Delete(byte[], long, NavigableMap<byte[], List<Cell>>) - 类 的构造器org.apache.hadoop.hbase.client.Delete
-
Construct the Delete with user defined data.
- delete(Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- delete(List<Delete>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- delete(Delete) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Deletes the specified cells/row.
- delete(List<Delete>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Batch Deletes the specified cells/rows from the table.
- delete(Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- delete(Delete) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Deletes the specified cells/row.
- delete(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a DELETE request
- delete(String, Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a DELETE request
- delete(Cluster, String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a DELETE request
- delete(Cluster, String, Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a DELETE request
- delete(Delete) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- delete(List<Delete>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- delete(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- delete(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerInstanceResource
-
- delete(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.SchemaResource
-
- delete(FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Calls fs.delete() and returns the value returned by the fs.delete()
- delete(String, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
delete is an idempotent operation.
- DELETE_BATCH_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- DELETE_BATCH_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- DELETE_FAMILY_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Delete Family Count in FileInfo
- DELETE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- DELETE_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- deleteAll(List<Delete>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
A simple version of batch delete.
- DeleteAsyncCallback() - 类 的构造器org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.DeleteAsyncCallback
-
- deleteBuffer - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteCachedRegionLocation(HRegionLocation) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Deletes cached locations for the specific region.
- deleteCell - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteChangedReaderObserver(ChangedReadersObserver) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- deleteChildrenRecursively(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete all the children of the specified node but not the node itself.
- deleteChildrenRecursivelyMultiOrSequential(ZKWatcher, boolean, String...) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete all the children of the specified node but not the node itself.
- deleteColumn(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- deleteColumn(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteColumn(RpcController, MasterProtos.DeleteColumnRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- deleteColumn(TableName, byte[], long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- deleteColumn(RpcController, MasterProtos.DeleteColumnRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- deleteColumn(TableName, byte[], long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Delete a column from an existing table
- deleteColumnFamily(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete a column family from a table.
- deleteColumnFamily(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete a column family from a table.
- deleteColumnFamily(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteColumnFamilyAsync(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete a column family from a table.
- deleteColumnFamilyAsync(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteDirectory(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Delete if exists.
- deleteFamily(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Remove the region family from disk, archiving the store files.
- deleteFamilyBloomFilter - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- deleteFamilyFromFS(RegionInfo, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- deleteFamilyFromFS(Path, RegionInfo, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- deleteFavoredNodesForRegions(Collection<RegionInfo>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- deleteIfEquals(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
delete the master znode if its content is same as the parameter
- deleteLength - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteMergeQualifiers(Connection, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Deletes merge qualifiers for the specified merged region.
- deleteMetaLocation(ZKWatcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Deletes the location of hbase:meta in ZooKeeper.
- deleteMetaLocation(ZKWatcher, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
- deleteMyEphemeralNodeOnDisk() - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
delete the znode file
- deleteNamespace(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete an existing namespace.
- deleteNamespace(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete an existing namespace.
- deleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteNamespace(RpcController, MasterProtos.DeleteNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- deleteNamespace(String, NonceKey, ProcedurePrepareLatch) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
Delete an existing Namespace.
- deleteNamespace(RpcController, MasterProtos.DeleteNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- deleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- deleteNamespaceAsync(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete an existing namespace.
- deleteNamespaceAsync(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteNamespaceQuota(Connection, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- deleteNoBody(byte[], UriInfo, HttpHeaders) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for DELETE delete namespace.
- deleteNode(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete the specified node.
- deleteNode(ZKWatcher, String, int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete the specified node with the specified version.
- deleteNodeFailSilent(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Deletes the specified node.
- deleteNodeFailSilent(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp
-
- deleteNodeRecursively(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete the specified node and all of it's children.
- deleteNodeRecursivelyMultiOrSequential(ZKWatcher, boolean, String...) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Delete the specified node and its children.
- deleteOffset - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteRegion(Connection, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Deletes the specified region from META.
- deleteRegionDir(Configuration, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Delete the region directory if exists.
- deleteRegionFromFileSystem(Configuration, FileSystem, Path, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Remove the region from the table directory, archiving the region's hfiles.
- deleteRegions(Connection, List<RegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Deletes the specified regions from META.
- deleteRegions(Connection, List<RegionInfo>, long) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Deletes the specified regions from META.
- deletes - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
Keeps track of deletes
- deleteShutdownHook(Runnable) - 类 中的静态方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- deleteSnapshot(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete an existing snapshot.
- deleteSnapshot(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete an existing snapshot.
- deleteSnapshot(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete an existing snapshot.
- deleteSnapshot(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteSnapshot(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteSnapshot(RpcController, MasterProtos.DeleteSnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- deleteSnapshot(RpcController, MasterProtos.DeleteSnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Execute Delete Snapshot operation.
- deleteSnapshots(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- deleteSnapshots(Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete existing snapshots whose names match the pattern passed.
- deleteSnapshots() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete all existing snapshots.
- deleteSnapshots(Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete existing snapshots whose names match the pattern passed.
- deleteSnapshots(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteSnapshots(Pattern) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteStoreFile() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
Delete this file
- deleteTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Deletes a table.
- deleteTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Deletes a table.
- deleteTable(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteTable(RpcController, MasterProtos.DeleteTableRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- deleteTable(TableName, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- deleteTable(RpcController, MasterProtos.DeleteTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- deleteTable(TableName, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Delete a table
- deleteTable(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
Deletes a table.
- deleteTable(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
Deletes a table.
- deleteTableAsync(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Deletes the table but does not block and wait for it to be completely removed.
- deleteTableAsync(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteTableDescriptorIfExists(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Deletes all the table descriptor files from the file system.
- deleteTableQuota(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- deleteTables(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- deleteTables(Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- deleteTables(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteTables(Pattern) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Delete tables matching the passed in pattern and wait on completion.
- deleteTableSnapshots(String, String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- deleteTableSnapshots(Pattern, Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Delete all existing snapshots matching the given table name regular expression and snapshot
name regular expression.
- deleteTableSnapshots(Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete all existing snapshots matching the given table name pattern.
- deleteTableSnapshots(Pattern, Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Delete all existing snapshots matching the given table name regular expression and snapshot
name regular expression.
- deleteTableSnapshots(String, String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteTableSnapshots(Pattern, Pattern) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- deleteTableState(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Remove state for table from meta
- deleteTask(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- deleteTask(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- deleteTimestamp - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- DeleteTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的接口
-
This interface is used for the tracking and enforcement of Deletes during the course of a Get or
Scan operation.
- DeleteTracker.DeleteResult - org.apache.hadoop.hbase.regionserver.querymatcher中的枚举
-
Returns codes for delete result.
- deleteType - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- deleteUserQuota(Connection, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- deleteUserQuota(Connection, String, TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- deleteUserQuota(Connection, String, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- DeleteVersionsNode(long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- DeleteVersionsNode() - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- deleteZooKeeper(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- DeletionListener - org.apache.hadoop.hbase.zookeeper中的类
-
A ZooKeeper watcher meant to detect deletions of ZNodes.
- DeletionListener(ZKWatcher, String, CountDownLatch) - 类 的构造器org.apache.hadoop.hbase.zookeeper.DeletionListener
-
Create a new instance of the deletion watcher.
- delFamMap - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- DELFILE_NAME_REGEX - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
A non-capture group, for del files, so that this can be embedded.
- delFileMaxCount - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
- DelimitedKeyPrefixRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
A custom RegionSplitPolicy implementing a SplitPolicy that groups
rows by a prefix of the row-key with a delimiter.
- DelimitedKeyPrefixRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
delimiter used between portions of a region name
- DELIMITER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- delPartitions - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest
-
- DependentColumnFilter - org.apache.hadoop.hbase.filter中的类
-
A filter for adding inter-column timestamp matching
Only cells with a correspondingly timestamped entry in
the target column will be retained
Not compatible with Scan.setBatch as operations need
full rows for correct filtering
- DependentColumnFilter(byte[], byte[], boolean, CompareFilter.CompareOp, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- DependentColumnFilter(byte[], byte[], boolean, CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.DependentColumnFilter
-
Build a dependent column filter with value checking
dependent column varies will be compared using the supplied
compareOp and comparator, for usage of which
refer to
CompareFilter
- DependentColumnFilter(byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.DependentColumnFilter
-
Constructor for DependentColumn filter.
- DependentColumnFilter(byte[], byte[], boolean) - 类 的构造器org.apache.hadoop.hbase.filter.DependentColumnFilter
-
Constructor for DependentColumn filter.
- dequeuedCall(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- dequeuedCall(int) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- deregister(MetricsRegionSource) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
Remove a region's source.
- deregister(MetricsRegionSource) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSourceImpl
-
- deregister(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
Remove a table's source.
- deregister(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSourceImpl
-
- deregisterChildren(ConfigurationManager) - 接口 中的方法org.apache.hadoop.hbase.conf.PropagatingConfigurationObserver
-
Needs to be called to deregister the children from the manager.
- deregisterChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
Needs to be called to deregister the children from the manager.
- deregisterChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Needs to be called to deregister the children from the manager.
- deregisterChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Needs to be called to deregister the children from the manager.
- deregisterObserver(ConfigurationObserver) - 类 中的方法org.apache.hadoop.hbase.conf.ConfigurationManager
-
Deregister an observer class
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedBlob
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedBlobVar
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedFloat32
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedFloat64
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt16
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt32
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt64
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedInt8
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedNumeric
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.OrderedString
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.RawBytes
-
- DESCENDING - 类 中的静态变量org.apache.hadoop.hbase.types.RawString
-
- descendingIterator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- descendingKeySet() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- descendingKeySet() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- descendingMap() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- descendingMap() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- descendingSet() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- DESCRIPTOR_VERSION - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifestV1
-
- DESCRIPTOR_VERSION - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifestV2
-
- DeserializationException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Failed deserialization.
- DeserializationException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.DeserializationException
-
- DeserializationException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.DeserializationException
-
- DeserializationException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.DeserializationException
-
- DeserializationException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.DeserializationException
-
- deserialize(byte[]) - 异常错误 中的静态方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
Takes a series of bytes and tries to generate an ForeignException instance for it.
- deserialize(ByteBuff) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializer
-
Returns the deserialized object.
- deserialize(ByteBuff, boolean, Cacheable.MemoryType) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializer
-
- deserialize(Cell) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization.CellDeserializer
-
- deserialize(KeyValue) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueDeserializer
-
已过时。
- destroy() - 类 中的方法org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- destroy() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter
-
- destroy() - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- destroy() - 类 中的方法org.apache.hadoop.hbase.http.NoCacheFilter
-
- destroyDirectByteBuffer(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.DirectMemoryUtils
-
DirectByteBuffers are garbage collected by using a phantom reference and a
reference queue.
- detail(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- determineTTLFromFamily(ColumnFamilyDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
- DFS_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- DFS_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- Dictionary - org.apache.hadoop.hbase.io.util中的接口
-
Dictionary interface
Dictionary indexes should be either bytes or shorts, only positive.
- DiffCompressionState() - 类 的构造器org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder.DiffCompressionState
-
- DiffKeyDeltaEncoder - org.apache.hadoop.hbase.io.encoding中的类
-
Compress using:
- store size of common prefix
- save column family once, it is same within HFile
- use integer compression for key, value and prefix (7-bit encoding)
- use bits to avoid duplication key length, value length
and type if it same as previous
- store in 3 bits length of timestamp field
- allow diff in timestamp instead of actual value
Format:
- 1 byte: flag
- 1-5 bytes: key length (only if FLAG_SAME_KEY_LENGTH is not set in flag)
- 1-5 bytes: value length (only if FLAG_SAME_VALUE_LENGTH is not set in flag)
- 1-5 bytes: prefix length
- ... bytes: rest of the row (if prefix length is small enough)
- ... bytes: qualifier (or suffix depending on prefix length)
- 1-8 bytes: timestamp or diff
- 1 byte: type (only if FLAG_SAME_TYPE is not set in the flag)
- ... bytes: value
- DiffKeyDeltaEncoder() - 类 的构造器org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- DiffKeyDeltaEncoder.DiffCompressionState - org.apache.hadoop.hbase.io.encoding中的类
-
- DiffKeyDeltaEncoder.DiffSeekerState - org.apache.hadoop.hbase.io.encoding中的类
-
- DiffSeekerState(ObjectIntPair<ByteBuffer>, boolean) - 类 的构造器org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder.DiffSeekerState
-
- DirectMemoryUtils - org.apache.hadoop.hbase.util中的类
-
Utilities for interacting with and monitoring DirectByteBuffer allocations.
- DirectMemoryUtils() - 类 的构造器org.apache.hadoop.hbase.util.DirectMemoryUtils
-
- DirFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.DirFilter
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DisableTableViolationPolicyEnforcement
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoInsertsViolationPolicyEnforcement
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesCompactionsViolationPolicyEnforcement
-
- disable() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesViolationPolicyEnforcement
-
- disable() - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
Disables this policy.
- DISABLED - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Disabled cache configuration
- DISABLED_ZNODE_BYTES - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- DisabledRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
- DisabledRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.DisabledRegionSplitPolicy
-
- disableJSON() - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
turns JSON output off, and turns on "pretty strings" for human consumption
- disablePeer(String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- disableReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Stop the replication stream to the specified peer.
- disableReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Stop the replication stream to the specified peer
- disableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableReplicationPeer(RpcController, ReplicationProtos.DisableReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- disableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- disableReplicationPeer(RpcController, ReplicationProtos.DisableReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- disableReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Stop the replication stream to the specified peer
- disableReplicationPeerAsync(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Disable a replication peer but does not block and wait for it.
- disableReplicationPeerAsync(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Disable table and wait on completion.
- disableTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Disable a table.
- disableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableTable(RpcController, MasterProtos.DisableTableRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- disableTable(TableName, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- disableTable(RpcController, MasterProtos.DisableTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- disableTable(TableName, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Disable an existing table
- disableTableAsync(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Disable the table but does not block and wait for it to be completely disabled.
- disableTableAsync(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableTableRep(TableName) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- disableTableReplication(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Disable a table's replication switch.
- disableTableReplication(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Disable a table's replication switch.
- disableTableReplication(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableTables(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- disableTables(Pattern) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- disableTables(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- disableTables(Pattern) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- DisableTableViolationPolicyEnforcement - org.apache.hadoop.hbase.quotas.policies中的类
-
- DisableTableViolationPolicyEnforcement() - 类 的构造器org.apache.hadoop.hbase.quotas.policies.DisableTableViolationPolicyEnforcement
-
- disableValues() - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
turns value output off
- disableViolationPolicyEnforcement(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
Disables enforcement on any violation policy on the given tableName.
- disableWriteBufferPeriodicFlush() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Disable periodic flushing of the write buffer.
- DISALLOWED_TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.TableName
-
One globally disallowed name
- disconnect() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- disconnectSince() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Check if the caller who made this IPC call has disconnected.
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.BalancedQueueRpcExecutor
-
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.FastPathBalancedQueueRpcExecutor
-
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Add the request to the executor queue
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Dispatches an RPC request asynchronously.
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- dispatch(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- DISPLAY_KEYS_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RegionInfoDisplay
-
- dispose() - 类 中的方法org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
Release resources used by wrapped saslClient
- dispose() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
Release resources used by wrapped saslServer
- divideForAvg(S, Long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
used for computing average of <S> data values.
- DNS - org.apache.hadoop.hbase.util中的类
-
Wrapper around Hadoop's DNS class to hide reflection.
- DO_NOTHING_COUNTER_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- DO_NOTHING_COUNTER_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- doAppend(W, FSWALEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- doAppend(WALProvider.AsyncWriter, FSWALEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- doAppend(WALProvider.Writer, FSWALEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- doBatchWithCallback(List<? extends Row>, Object[], Batch.Callback<R>, ClusterConnection, ExecutorService, TableName) - 类 中的静态方法org.apache.hadoop.hbase.client.HTable
-
- doCall() - 类 中的方法org.apache.hadoop.hbase.client.AsyncAdminRequestRetryingCaller
-
- doCall() - 类 中的方法org.apache.hadoop.hbase.client.AsyncMasterRequestRpcRetryingCaller
-
- doCall() - 类 中的方法org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- doCall() - 类 中的方法org.apache.hadoop.hbase.client.AsyncServerRequestRpcRetryingCaller
-
- doCheckLogLowReplication() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- doCheckLogLowReplication() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- doCheckLogLowReplication() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- doCompaction(CompactionRequestImpl, Collection<HStoreFile>, User, long, List<Path>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- doesNamespaceExist(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter
-
- doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.hbase.http.NoCacheFilter
-
- doFullAppendTransaction(WAL, NavigableMap<byte[], Integer>, RegionInfo, WALEdit, MultiVersionConcurrencyControl, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALUtil
-
A 'full' WAL transaction involves starting an mvcc transaction followed by an append,
an optional sync, and then a call to complete the mvcc transaction.
- doGet(ClientProtos.GetRequest) - 类 中的方法org.apache.hadoop.hbase.client.ClientServiceCallable
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.http.AdminAuthorizedServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.http.conf.ConfServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.StackServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.http.jmx.JMXJsonServlet
-
Process a GET request for the specified resource.
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.http.log.LogLevel.Servlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.master.HMaster.RedirectServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.master.MasterDumpServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.master.MasterStatusServlet
-
- doGet(Connection, Get) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- doGet(Connection, List<Get>) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSStatusServlet
-
- doInit(Configuration) - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- doInit(Configuration) - 类 中的方法org.apache.hadoop.hbase.wal.AsyncFSWALProvider
-
- doInit(Configuration) - 类 中的方法org.apache.hadoop.hbase.wal.FSHLogProvider
-
- doLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Get the logical value indicating whether on-demand CF loading should be allowed.
- doMain(String[]) - 类 中的方法org.apache.hadoop.hbase.util.ServerCommandLine
-
Parse and run the given command line.
- domainNamePointerToHostName(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Strings
-
Given a PTR string generated via reverse DNS lookup, return everything
except the trailing period.
- doMobCompaction(Configuration, FileSystem, TableName, ColumnFamilyDescriptor, ExecutorService, boolean, LockManager.MasterLock) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Performs the mob compaction.
- doMutate(ClientProtos.MutateRequest) - 类 中的方法org.apache.hadoop.hbase.client.ClientServiceCallable
-
- done - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- done() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
- done() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
Done when there are no more columns to match against.
- done() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- done() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
We can never know a-priori if we are done, so always return false.
- Done(ServerName) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Done
-
- doneBulkLoad(byte[], String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.HRegion.BulkLoadListener
-
Called after a successful HFile load
- doneWithColumn(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
This method is used to inform the column tracker that we are done with this column.
- doneWithColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- DoNotRetryIOException - org.apache.hadoop.hbase中的异常错误
-
Subclass if exception is not meant to be retried: e.g.
- DoNotRetryIOException() - 异常错误 的构造器org.apache.hadoop.hbase.DoNotRetryIOException
-
default constructor
- DoNotRetryIOException(String) - 异常错误 的构造器org.apache.hadoop.hbase.DoNotRetryIOException
-
- DoNotRetryIOException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.DoNotRetryIOException
-
- DoNotRetryIOException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.DoNotRetryIOException
-
- DoNotRetryRegionException - org.apache.hadoop.hbase.client中的异常错误
-
Similar to RegionException, but disables retries.
- DoNotRetryRegionException() - 异常错误 的构造器org.apache.hadoop.hbase.client.DoNotRetryRegionException
-
- DoNotRetryRegionException(String) - 异常错误 的构造器org.apache.hadoop.hbase.client.DoNotRetryRegionException
-
- DoNotRetryRegionException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.client.DoNotRetryRegionException
-
- DONT_BREAK_LINES - 类 中的静态变量org.apache.hadoop.hbase.util.Base64
-
Don't break lines when encoding (violates strict Base64 specification)
- DONT_FILL_HEADER - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- doRealSeek(KeyValueScanner, Cell, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- doRegionCompactionPrep() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Do preparation for pending compaction.
- doReplaceWriter(Path, Path, W) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- doReplaceWriter(Path, Path, WALProvider.AsyncWriter) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- doReplaceWriter(Path, Path, WALProvider.Writer) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- doSetup(Reducer<ImmutableBytesWritable, Text, ImmutableBytesWritable, KeyValue>.Context, Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
Handles common parameter initialization that a subclass might want to leverage.
- doSetup(Mapper<LongWritable, Text, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Handles common parameter initialization that a subclass might want to leverage.
- doSetup(Mapper<LongWritable, Text, ImmutableBytesWritable, Text>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
Handles common parameter initialization that a subclass might want to leverage.
- doShutdown() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- doShutdown() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- doShutdown() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- doSmokeTest(FileSystem, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- doStart() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- doStaticMain(String[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
Call this from the concrete tool class's main function.
- doStop() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- doWork() - 类 中的方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- doWork() - 类 中的方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Execute the export snapshot by copying the snapshot metadata, hfiles and wals.
- doWork() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- doWork() - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
The "main function" of the tool
- doWork() - 类 中的方法org.apache.hadoop.hbase.util.RegionMover
-
- DrainingServerTracker - org.apache.hadoop.hbase.master中的类
-
Tracks the list of draining region servers via ZK.
- DrainingServerTracker(ZKWatcher, Abortable, ServerManager) - 类 的构造器org.apache.hadoop.hbase.master.DrainingServerTracker
-
- drainingZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- drainInputStreamToBuffer(InputStream) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy from the InputStream to a new heap ByteBuffer until the InputStream is exhausted.
- drainTo(Collection<? super CallRunner>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- drainTo(Collection<? super CallRunner>, int) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- drainTo(Collection<? super E>) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- drainTo(Collection<? super E>, int) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- Driver - org.apache.hadoop.hbase.mapred中的类
-
Driver for hbase mapreduce jobs.
- Driver() - 类 的构造器org.apache.hadoop.hbase.mapred.Driver
-
- Driver - org.apache.hadoop.hbase.mapreduce中的类
-
Driver for hbase mapreduce jobs.
- Driver() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Driver
-
- drop() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
When we want to drop this call because of server is overloaded.
- DropDeletesCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
A query matcher for compaction which can drop delete markers.
- DropDeletesCompactionScanQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.DropDeletesCompactionScanQueryMatcher
-
- dropDependentColumn - 类 中的变量org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- dropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- DroppedSnapshotException - org.apache.hadoop.hbase中的异常错误
-
Thrown during flush if the possibility snapshot content was not properly
persisted into store files.
- DroppedSnapshotException(String) - 异常错误 的构造器org.apache.hadoop.hbase.DroppedSnapshotException
-
- DroppedSnapshotException() - 异常错误 的构造器org.apache.hadoop.hbase.DroppedSnapshotException
-
default constructor
- DRY_RUN_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- DUD - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- DUMMY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.FlushLifeCycleTracker
-
- dump(Logger) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- dump(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- dumpAllBeans() - 类 中的静态方法org.apache.hadoop.hbase.util.JSONBean
-
Dump out all registered mbeans as json on System.out.
- dumpBeanToString(String) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
Returns a subset of mbeans defined by qry.
- dumpCallQueues(HRegionServer, PrintWriter) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- dumpMetrics() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.DumpRegionServerMetrics
-
Dump out a subset of regionserver mbeans only, not all of them, as json on System.out.
- dumpOverlapProblems(Multimap<byte[], HBaseFsck.HbckInfo>) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- dumpQueue() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- dumpQueue(HRegionServer, PrintWriter) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- DumpRegionServerMetrics - org.apache.hadoop.hbase.regionserver中的类
-
Utility for doing JSON and MBeans.
- dumpRowLock(HRegionServer, PrintWriter) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- dumpSidelinedRegions(Map<Path, HBaseFsck.HbckInfo>) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- duplicate() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns an ByteBuff which is a duplicate version of this ByteBuff.
- duplicate() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns an MBB which is a duplicate version of this MBB.
- duplicate() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- Durability - org.apache.hadoop.hbase.client中的枚举
-
Enum describing the durability guarantees for tables and
Mutations
Note that the items must be sorted in order of increasing durability
- durability - 类 中的变量org.apache.hadoop.hbase.client.Mutation
-
- DURABILITY - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- DURABILITY - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- DynamicClassLoader - org.apache.hadoop.hbase.util中的类
-
This is a class loader that can load classes dynamically from new
jar files under a configured folder.
- DynamicClassLoader(Configuration, ClassLoader) - 类 的构造器org.apache.hadoop.hbase.util.DynamicClassLoader
-
Creates a DynamicClassLoader that can load classes dynamically
from jar files under a specific folder.
- GENERAL_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- GENERAL_QUEUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- generalBloomFilter - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- generateDeadServersListToSend() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
Create the dead server to send.
- generateExceptionForChecksumFailureForTest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.ChecksumUtil
-
Mechanism to throw an exception in case of hbase checksum
failure.
- generateFavoredNodes(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- generateFavoredNodesForDaughter(List<ServerName>, RegionInfo, RegionInfo, RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- generateFavoredNodesForDaughter(List<ServerName>, RegionInfo, RegionInfo, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPromoter
-
- generateFavoredNodesForMergedRegion(RegionInfo, RegionInfo, RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- generateFavoredNodesForMergedRegion(RegionInfo, RegionInfo, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPromoter
-
- generateFavoredNodesRoundRobin(Map<ServerName, List<RegionInfo>>, List<RegionInfo>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- generateMissingFavoredNode(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- generateMissingFavoredNode(List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- generateNewScannerId() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerIdGenerator
-
- get(Get) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Extracts certain cells from a given row.
- get(List<Get>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Extracts certain cells from the given rows, in batch.
- Get - org.apache.hadoop.hbase.client中的类
-
Used to perform Get operations on a single row.
- Get(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Get
-
Create a Get operation for the specified row.
- Get(Get) - 类 的构造器org.apache.hadoop.hbase.client.Get
-
Copy-constructor
- Get(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.client.Get
-
Create a Get operation for the specified row.
- Get(ByteBuffer) - 类 的构造器org.apache.hadoop.hbase.client.Get
-
Create a Get operation for the specified row.
- get() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- get(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- get(Get) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- get(List<Get>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- get(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Returns a list of all KeyValue objects with matching column family and qualifier.
- get() - 类 中的静态方法org.apache.hadoop.hbase.client.PerClientRandomNonceGenerator
-
Get the singleton nonce generator.
- get - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- get(Get) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Extracts certain cells from a given row.
- get(List<Get>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Extracts specified cells from the given rows, as a batch.
- get(String) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- get(String, String) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
Get the value of the name.
- get(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- get() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Get the data from the BytesWritable.
- get() - 类 中的方法org.apache.hadoop.hbase.ipc.BlockingRpcCallback
-
- get() - 类 中的方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils.BlockingRpcCallback
-
- get() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- get(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- get() - 接口 中的方法org.apache.hadoop.hbase.master.HMaster.TableDescriptorGetter
-
- get(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- get() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
A relative method that returns byte at the current position.
- get(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the byte at the given index.
- get(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies the specified number of bytes from this ByteBuff's current position to
the byte[]'s offset.
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies the specified number of bytes from this ByteBuff's given position to
the byte[]'s offset.
- get(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies the content from this ByteBuff's current position to the byte array and fills it.
- get(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies the content from this ByteBuff to a ByteBuffer
Note : This will advance the position marker of out but not change the position maker
for this ByteBuff
- get(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Fetches the byte at the given index.
- get() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
A relative method that returns byte at the current position.
- get(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies the content from this MBB's current position to the byte array and fills it.
- get(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies the specified number of bytes from this MBB's current position to the byte[]'s offset.
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- get(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies the content from an this MBB to a ByteBuffer
- get() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- get(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- get(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- get(Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Get, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Get, boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Get) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Do a get based on the get parameter.
- get(Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Do a get based on the get parameter.
- get(RpcController, ClientProtos.GetRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Get data from a table.
- get(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(Cluster, String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(String, String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(Cluster, String, String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(String, Header[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(Cluster, String, Header[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a GET request
- get(Get) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- get(List<Get>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.ExistsResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.MultiRowResource
-
- get(ServletContext, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for GET namespace description or GET list of namespace tables.
- get(ServletContext, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesResource
-
Build a response for a list of all namespaces request.
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RegionsResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RootResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- get(UriInfo, int, int) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerInstanceResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.SchemaResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.StorageClusterStatusResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.StorageClusterVersionResource
-
- get(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.TableScanResource
-
- get(ServletContext, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.VersionResource
-
Build a response for a version request.
- get() - 类 中的方法org.apache.hadoop.hbase.Size
-
get the value
- get(Size.Unit) - 类 中的方法org.apache.hadoop.hbase.Size
-
get the value which is converted to specified unit.
- get(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
- get(Object) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- get(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- get() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- get(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- get(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- get(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- get(TNode, Object, AvlUtil.AvlKeyComparator<TNode>) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.ByteArrayHashKey
-
- get(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Retrieve the byte at index.
- get(int, byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Fill dst with bytes from the range, starting from index.
- get(int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Fill dst with bytes from the range, starting from index.
- get() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
Get the data from the Bytes.
- get() - 接口 中的方法org.apache.hadoop.hbase.util.CollectionUtils.IOExceptionSupplier
-
- get() - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- get(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Get the current table descriptor for the given table, or null if none exists.
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.HashKey
-
- get(K) - 类 中的方法org.apache.hadoop.hbase.util.ObjectPool
-
Returns a shared object associated with the given key,
which is identified by the equals method.
- get(Object) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- get() - 接口 中的方法org.apache.hadoop.hbase.util.PoolMap.Pool
-
- get() - 类 中的方法org.apache.hadoop.hbase.util.PoolMap.ReusablePool
-
- get() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next byte from this range.
- get(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Fill dst with bytes from the range, starting from position.
- get(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Fill dst with bytes from the range, starting from the current
position.
- get(int, byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- get(int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.RowBloomHashKey
-
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.RowColBloomHashKey
-
- get(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- get(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- get(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- get() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
Returns a reference to the unmodifiable list currently backing the SortedList.
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- get(String) - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- get(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- get75thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get95thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get98thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get999thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get99thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- GET_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- GET_SIZE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- GET_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- getAbortable() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getAccessCount() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Gets the count of accesses to the mob file cache.
- getACL() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- getACL() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- getAcl(String, Stat) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
getAcl is an idempotent operation.
- getAction() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- getAction(VersionedSegmentsList) - 类 中的方法org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- getAction(VersionedSegmentsList) - 类 中的方法org.apache.hadoop.hbase.regionserver.BasicMemStoreCompactionStrategy
-
- getAction(VersionedSegmentsList) - 类 中的方法org.apache.hadoop.hbase.regionserver.EagerMemStoreCompactionStrategy
-
- getAction(VersionedSegmentsList) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- getActions() - 类 中的方法org.apache.hadoop.hbase.client.DelayingRunner
-
- getActiveEnforcements() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
Creates an object well-suited for the RegionServer to use in verifying active policies.
- getActiveFileName() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Return the active file name that contains the real data.
- getActiveHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveMaster() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Gets the current active master, if available.
- getActivePoliciesAsMap() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- getActiveReadHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveReadHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveReadRpcHandlerCount() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveRpcHandlerCount() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active handler.
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveScanHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveScanHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveScanRpcHandlerCount() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveTime() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the hbase master active time
- getActiveTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getActiveWriteHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveWriteHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveWriteRpcHandlerCount() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getAddress() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getAdmin() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Retrieve an
AsyncAdmin implementation to administer an HBase cluster.
- getAdmin(ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Retrieve an
AsyncAdmin implementation to administer an HBase cluster.
- getAdmin(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Establishes a connection to the region server at the specified address.
- getAdmin() - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
Retrieve an Admin implementation to administer an HBase cluster.
- getAdmin(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.ConnectionUtils.ShortCircuitingClusterConnection
-
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to get the
Admin.
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Caller doesn't close the admin afterwards.
- getAdminBuilder() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getAdminBuilder(ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getAdminForMaster() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Get the admin service for master.
- getAgeAtEvictionSnapshot() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getAgeInCacheSnapshot() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSink
-
- getAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getAggregateSource() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
Get the aggregate source to which this reports.
- getAggregateSource() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSourceImpl
-
- getAggregateSource() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
Get the aggregate source to which this reports.
- getAggregateSource() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- getAliasPassword(String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- getAll(List<Get>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
A simple version for batch get.
- getAll() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Get Map of all TableDescriptors.
- getAll() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns a map from table name to table descriptor for all tables.
- getAllCached() - 类 中的静态方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
- getAllFilters() - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Returns all known filters
- getAllHFileRefs() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Load all hfile references in all replication queues.
- getAllowPartialResults() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getAllPeerIds() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
Returns the set of peerIds of the clusters that have been connected and have an underlying
ReplicationPeer.
- getAllPeersFromHFileRefsQueue() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get list of all peers from hfile reference queue.
- getAllQueues(ServerName) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get a list of all queues for the specified region server.
- getAllRegionLocations() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
- getAllRegionLocations() - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Retrieves all of the regions associated with this table.
- getAllRegions(Connection, boolean) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Lists all of the regions currently in META.
- getAllRSGroupInfo(Connection) - 类 中的静态方法org.apache.hadoop.hbase.RSGroupTableAccessor
-
- getAllSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getAllSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- getAllWALs() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Load all wals in all replication queues.
- getAlphabet(int) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Returns one of the _SOMETHING_ALPHABET byte arrays depending on the options
specified.
- getAlterStatus(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getAlterStatus(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getAlterStatus(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getAlterStatus(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getAndResetChecksumFailuresCount() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Number of checksum verification failures.
- getAnnotatedPriority(RPCProtos.RequestHeader) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
See if the method has an annotation.
- getArchivedLogPath(Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Get the archived WAL file path
- getArchivedStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getArchivedStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getArchivePath() - 类 中的方法org.apache.hadoop.hbase.io.HFileLink
-
- getArchivePath(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
- getArgumentsFromCommandLine(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ExportUtils
-
- getAssignmentManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getAssignmentManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getAssignmentMap() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPlan
-
- getAssignMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- getAssignMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- getAssignProcMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getAsyncProcess() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getAttemptingUser() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getAttemptTimes() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- getAttribute(String) - 接口 中的方法org.apache.hadoop.hbase.client.Attributes
-
Gets an attribute
- getAttribute(String) - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- getAttribute(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the value in the webapp context.
- getAttributeSize() - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- getAttributesKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getAttributesMap() - 接口 中的方法org.apache.hadoop.hbase.client.Attributes
-
Gets all attributes
- getAttributesMap() - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- getAuthChore(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.AuthUtil
-
Checks if security is enabled and if so, launches chore for refreshing kerberos ticket.
- getAuthorizationID() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getAuthorizations() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- getAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getAvailablePath(FileSystem) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- getAverageLatencyForEachRegionServer() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getAverageLoad() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Compute the average load across all region servers.
- getAverageLoad() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get Average Load
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Compute the average load across all region servers.
- getAverageRegionSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the average region size to this region server.
- getAvg(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a Pair with first object as Sum and second object as row count,
computed for a given combination of column qualifier and column family in
the given row range as defined in the Scan object.
- getAvgStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getAvgStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getAvgStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getAvgStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getAvgStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getBackoffPolicy() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getBackoffPolicy() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- getBackoffTime(ServerName, byte[], ServerStatistics) - 接口 中的方法org.apache.hadoop.hbase.client.backoff.ClientBackoffPolicy
-
- getBackoffTime(ServerName, byte[], ServerStatistics) - 类 中的方法org.apache.hadoop.hbase.client.backoff.ClientBackoffPolicyFactory.NoBackoffPolicy
-
- getBackoffTime(ServerName, byte[], ServerStatistics) - 类 中的方法org.apache.hadoop.hbase.client.backoff.ExponentialClientBackoffPolicy
-
- getBackoffTime(RetryCounter.RetryConfig, int) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.BackoffPolicy
-
- getBackoffTime(RetryCounter.RetryConfig, int) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.ExponentialBackoffPolicy
-
- getBackoffTime(RetryCounter.RetryConfig, int) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.ExponentialBackoffPolicyWithLimit
-
- getBackoffTime() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- getBackoffTimeAndIncrementAttempts() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- getBackReferenceFileName(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Get the referenced file name from the reference link directory path.
- getBackReferencesDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Get the directory to store the link back references
To simplify the reference count process, during the FileLink creation
a back-reference is added to the back-reference directory of the specified file.
- getBackupMasterInfoPort(ServerName) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get the info port of the backup master if it is available.
- getBackupMasterNames() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getBackupMasterNames() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getBackupMasters() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getBackupMasters() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getBackupMasters() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getBackupMastersSize() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getBackupZooKeeperServerNum() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- getBalancer(int) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getBalancerOn() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getBalancerOn() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getBandwidth() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getBarriers() - 类 中的方法org.apache.hadoop.hbase.MetaTableAccessor.ReplicationBarrierResult
-
- getBasePriority(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Get the priority for a given request from the header and the param
This doesn't consider which user is sending the request at all.
- getBatch() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getBatch() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getBestLocations(Configuration, HDFSBlocksDistribution) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getBinary(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- getBinary(UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerInstanceResource
-
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Fetch block from cache.
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get the buffer of the block with the specified name.
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getBlockCache() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns the block cache.
- getBlockCacheCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of items in the block cache.
- getBlockCacheEvictedCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of items evicted from the block cache.
- getBlockCacheFailedInsertions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Number of cache insertions that failed.
- getBlockCacheFreeSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size (in bytes) of the block cache that is free.
- getBlockCacheHeapPercent(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Retrieve configured size for on heap block cache as percentage of total heap.
- getBlockCacheHitCachingPercent() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the percent of requests with the block cache turned on that hit the block cache.
- getBlockCacheHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the count of hits to the block cache
- getBlockCacheHitPercent() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the percent of all requests that hit the block cache.
- getBlockCacheMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the count of misses to the block cache.
- getBlockCachePrimaryEvictedCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of items evicted from primary replica in the block cache.
- getBlockCachePrimaryHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the count of hits to primary replica in the block cache
- getBlockCachePrimaryMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the count of misses to primary replica in the block cache.
- getBlockCaches() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getBlockCacheSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- getBlockCacheSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total size (in bytes) of the block cache.
- getBlockCount() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the number of blocks currently cached in the block cache.
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getBlockedFlushCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getBlockedRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getBlockedRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getBlockedRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getBlockingFileCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getBlockingFileCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
The number of files required before flushes for this store will be blocked.
- getBlockingService() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- getBlockLocalityIndex(String) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the locality index of a given host
- getBlockPriority() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getBlocksize() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getBlocksize() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getBlocksize() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getBlockSize() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- getBlockSize() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- getBlockSize() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- getBlockSize() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- getBlockSize() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Get the cipher's internal block size
- getBlockSize() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Get the cipher's internal block size
- getBlocksize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getBlockType() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- getBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
- getBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
- getBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getBloomBlockSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getBloomChunkHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getBloomChunkHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getBloomChunkHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getBloomChunkMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getBloomChunkMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getBloomChunkMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getBloomFilterSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getBloomFilterSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getBloomFilterType() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getBloomFilterType() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getBloomFilterType() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getBloomFilterType() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getBody() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- getBoundedCachedThreadPool(int, long, TimeUnit, ThreadFactory) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Create a new CachedThreadPool with a bounded number as the maximum
thread size in the pool.
- getBucketCacheSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferPool
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
To be used only in tests where the Cells are clearly assumed to be of type KeyValue
and that we need access to the backing array to do some test case related assertions.
- getBufferedCounterForEachRegionServer() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getBufferedMutator(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getBufferedMutator(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getBufferedMutator(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
- getBufferedMutator(BufferedMutatorParams) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
- getBufferedMutator(TableName) - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getBufferedMutator(BufferedMutatorParams) - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getBufferedMutatorBuilder(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getBufferedMutatorBuilder(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getBufferReadOnly() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns a read-only duplicate of the buffer this block stores internally ready to be read.
- getBufferSize() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferPool
-
- getBufferWithoutHeader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns a buffer that does not include the header or checksum.
- getBuilder(WALCellCodec.ByteStringCompressor) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getBulkLoadDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
Deserialized and returns a BulkLoadDescriptor from the passed in Cell
- getBulkLoadObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessor
-
- getBulkLoadTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getBulkLoadTimestamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Return the timestamp at which this bulk load file was generated.
- getByNamespace(String) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Get Map of all NamespaceDescriptors for a given namespace.
- getByNamespace(String) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Find descriptors by namespace.
- getBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- getByteAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the byte at the given offset from current position.
- getByteAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- getByteAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getByteBuffer() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- getByteBuffer() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
This flips the underlying BB so be sure to use it _last_!
- getByteBuffers() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
We can be assured that the buffers returned by this method are all flipped
- getBytes() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getBytes() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
The underlying byte[].
- getBytes(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Returns a new byte array, copied from the given buf,
from the position (inclusive) to the limit (exclusive).
- getBytes() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- getBytes(Writable) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
- getBytes(Writable...) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
Put a bunch of Writables as bytes all into the one byte array.
- getByteSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- getByteSize() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getByteSize() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- getBytesPerChecksum() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getBytesPerChecksum(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the configured bytesPerChecksum value.
- getBytesPerSec() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
Getter for the read-rate from this stream, since creation.
- getByteStringCompressor() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getByteStringUncompressor() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get whether blocks should be cached for this Get.
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get whether blocks should be cached for this Scan.
- getCacheConf() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Used for tests.
- getCacheCount() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getCachedBlockStatsByFile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getCachedLocation(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Search the cache for a location that fits our table and row key.
- getCachedTime() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getCachedTime() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getCacheKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getCacheMissCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCacheOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- getCacheOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getCacheOnWrite() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
- getCacheSize() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getCacheSize() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Gets the count of cached mob files.
- getCaching() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getCaching() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getCaching() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
Get the number of rows that will be fetched on next
- getCall() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- getCallback() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getCalledMethodNames(String) - 类 中的方法org.apache.hadoop.hbase.ipc.CallQueueInfo
-
- getCaller() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
Returns the active user for the coprocessor call.
- getCaller() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- getCallMethodCount(String, String) - 类 中的方法org.apache.hadoop.hbase.ipc.CallQueueInfo
-
- getCallMethodSize(String, String) - 类 中的方法org.apache.hadoop.hbase.ipc.CallQueueInfo
-
- getCallQueueCountsSummary() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getCallQueueInfo() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getCallQueueInfo() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Get call queue information
- getCallQueueInfo() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getCallQueueNames() - 类 中的方法org.apache.hadoop.hbase.ipc.CallQueueInfo
-
- getCallQueueSizeSummary() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getCallRunner() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.Handler
-
- getCallTimeMs() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- getCallTimeout() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- getCallTimeout() - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- getCallTimeout() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- getCandidateFilesForRowKeyBefore(KeyValue) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets initial, full list of candidate store files to check for row-key-before.
- getCandidateFilesForRowKeyBefore(KeyValue) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCatalogJanitor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getCatalogJanitor() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getCategory() - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- getCause(int) - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getCauses() - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getCell() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
- getCell() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- getCell() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getCell() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getCell() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getCell(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellArrayMap
-
- getCell(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkMap
-
- getCell(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- getCellBuilder() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
Returns a CellBuilder so that coprocessors can build cells.
- getCellComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCellComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DeleteTracker
-
Return the comparator passed to this delete tracker
- getCellComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- getCellComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- getCellComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
The comparator to be used with the region
- getCellCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export.Response
-
- getCellCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getCellKeyAsString(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getCellKeySerializedAsKeyValueKey(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getCellKeySerializedAsKeyValueKey(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
This method exists just to encapsulate how we serialize keys.
- getCells() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- getCellScanner() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getCellsCountCompactedFromMob() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getCellsCountCompactedFromMob() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of cells moved from mob during compaction.
- getCellsCountCompactedToMob() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getCellsCountCompactedToMob() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of cells moved to mob during compaction.
- getCellSet() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getCellSet() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getCellsSizeCompactedFromMob() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getCellsSizeCompactedFromMob() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the total amount of cells moved from mob during compaction, in bytes.
- getCellsSizeCompactedToMob() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getCellsSizeCompactedToMob() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the total amount of cells moved to mob during compaction, in bytes.
- getCellTTLColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getCellValueFromProto(Q) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method gets the PB message corresponding to the cell type
- getCellVisibility() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- getCellVisibilityColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getChance() - 类 中的方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
- getCheckAndMutateChecksFailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCheckAndMutateChecksFailed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of CAS operations that failed.
- getCheckAndMutateChecksFailed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getCheckAndMutateChecksPassed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCheckAndMutateChecksPassed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of CAS operations that passed.
- getCheckAndMutateChecksPassed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getChecksumFailures() - 接口 中的方法org.apache.hadoop.hbase.io.MetricsIOWrapper
-
- getChecksumFailures() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIOWrapperImpl
-
- getChecksumFailuresCount() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Number of checksum verification failures.
- getChecksumType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getChecksumType(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the configured checksum algorithm.
- getChildDataAndWatchForNewChildren(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- getChildren(String, Watcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
getChildren is an idempotent operation.
- getChildren(String, boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
getChildren is an idempotent operation.
- getChoreService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getChoreService() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getChunkId() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Extracts the id of the backing bytebuffer of this cell if it was obtained from fixed sized
chunks as in case of MemstoreLAB
- getChunkId() - 类 中的方法org.apache.hadoop.hbase.regionserver.ByteBufferChunkKeyValue
-
- getChunkId() - 类 中的方法org.apache.hadoop.hbase.regionserver.NoTagByteBufferChunkKeyValue
-
- getCipher(String) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.CipherProvider
-
Get an Cipher
- getCipher() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getCipher(String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- getCipher(String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- getCipher(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Get an cipher given a name
- getCipherProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
- getClassByName(String) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- getClassLoader() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getClassLoader() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getClassLoader(Path, ClassLoader, String, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
Get a CoprocessorClassLoader for a coprocessor jar path from cache.
- getClassName() - 接口 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptor
-
- getClient(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Establishes a connection to the region server at the specified address, and returns
a region client protocol.
- getClient(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.ConnectionUtils.ShortCircuitingClusterConnection
-
- getClientIdAuditPrefix() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClientIdAuditPrefix() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getClientPort() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- getClientPort() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKConfig.ZKClusterKey
-
- getClientPortList() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
Get the list of client ports.
- getClientVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getClientZKQuorumServersString(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Get the client ZK Quorum servers string
- getCloseCheckInterval() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCluster() - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
- getClusterConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getClusterConnection() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Returns a reference to the servers' cluster connection.
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the Cluster ID
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the Cluster ID
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getClusterId(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the value of the unique cluster ID stored for this HBase instance.
- getClusterIds() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- getClusterIds() - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- getClusterIds() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
- getClusterIds() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getClusterKey() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getClusterMetrics() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get whole cluster metrics, containing status about:
hbase version
cluster id
primary/backup master(s)
master's coprocessors
live/dead regionservers
balancer
regions in transition
- getClusterMetrics(EnumSet<ClusterMetrics.Option>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getClusterMetrics() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getClusterMetrics(EnumSet<ClusterMetrics.Option>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getClusterMetrics(EnumSet<ClusterMetrics.Option>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getClusterMetrics() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterMetrics(EnumSet<ClusterMetrics.Option>) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterMetricsWithoutCoprocessor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterMetricsWithoutCoprocessor(EnumSet<ClusterMetrics.Option>) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterSchema() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterSchema() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getClusterStatus() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getClusterStatus(RpcController, MasterProtos.GetClusterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getClusterStatus(RpcController, MasterProtos.GetClusterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getClusterStatus() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- getClusterStatusResource() - 类 中的方法org.apache.hadoop.hbase.rest.RootResource
-
- getClusterVersion() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- getClusterVersionResource() - 类 中的方法org.apache.hadoop.hbase.rest.VersionResource
-
Dispatch to StorageClusterVersionResource
- getCode() - 枚举 中的方法org.apache.hadoop.hbase.Cell.Type
-
- getCode() - 枚举 中的方法org.apache.hadoop.hbase.KeyValue.Type
-
- getCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getCode() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- getCode() - 枚举 中的方法org.apache.hadoop.hbase.util.ChecksumType
-
- getCodec(Configuration, String, CompressionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getCodec(Configuration, Encryptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getCodec(Configuration, Decryptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getCodecClsName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getColumnCells(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Return the Cells for the specific column.
- getColumnFamilies() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getColumnFamilies() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getColumnFamilies() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getColumnFamily(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns the ColumnDescriptor for a specific column family with name as
specified by the parameter column.
- getColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns the ColumnFamilyDescriptor for a specific column family with name as
specified by the parameter column.
- getColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getColumnFamilyCount() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns the count of the column families of the table.
- getColumnFamilyCount() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getColumnFamilyCount() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Returns the count of the column families of the table.
- getColumnFamilyDescriptor() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getColumnFamilyDescriptor() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getColumnFamilyMap() - 类 中的方法org.apache.hadoop.hbase.client.replication.TableCFs
-
- getColumnFamilyName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getColumnFamilyName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getColumnFamilyNames() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns all the column family names of the current table.
- getColumnFamilyNames() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns all the column family names of the current table.
- getColumnFamilyNames() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getColumnFamilyTimeRange() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- getColumnHint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Used by matcher and scan/get to get a hint of the next column
to seek to after checkColumn() returns SKIP.
- getColumnHint() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- getColumnHint() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- getColumnHint() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Used by matcher and scan/get to get a hint of the next column to seek to after checkColumn()
returns SKIP.
- getColumnLatestCell(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
The Cell for the most recent timestamp for a given column.
- getColumnLatestCell(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
The Cell for the most recent timestamp for a given column.
- getColumnOffset() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- getColumns() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getColumnsAdded() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorUtils.TableDescriptorDelta
-
- getColumnsDeleted() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorUtils.TableDescriptorDelta
-
- getColumnsModified() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorUtils.TableDescriptorDelta
-
- getCommmand() - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getCompactedCellCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getCompactedCellCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getCompactedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of cells processed during minor compactions.
- getCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total amount of data processed during minor compactions, in bytes.
- getCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedfiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
List of compacted files inside this store that needs to be excluded in reads
because further new reads will be using only the newly created files out of compaction.
- getCompactedfiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCompactedFilesCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedFilesCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedFilesCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Returns the number of compacted files.
- getCompactedFilesCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCompactingCellCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getCompactingCellCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getCompaction(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
Deserialized and returns a CompactionDescriptor is the KeyValue contains one.
- getCompactionCheckMultiplier() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactionCheckMultiplier() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getCompactionCompression() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
- getCompactionCompressionType() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getCompactionCompressionType() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getCompactionCompressionType() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getCompactionPartitions() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest
-
Gets the compaction partitions.
- getCompactionPolicy() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.client.backoff.ServerStatistics.RegionStatistics
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.client.RegionLoadStats
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
This value can represent the degree of emergency of compaction for this store.
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCompactionProgress() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
getter for CompactionProgress object
- getCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
Returns the current size of the queue containing regions that are
processed.
- getCompactionQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size of the compaction queue
- getCompactionRequestor() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCompactionRequestor() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getCompactionState(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the current compaction state of a table.
- getCompactionState(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the current compaction state of a table.
- getCompactionState(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the current compaction state of a table.
- getCompactionState(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the current compaction state of a table.
- getCompactionState(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getCompactionState(TableName, CompactType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Get the current compaction state of a table.
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCompactionState() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getCompactionStateForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the current compaction state of region.
- getCompactionStateForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the current compaction state of region.
- getCompactionStateForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getCompactionThroughputController() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getCompactionType() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
Gets the compaction type.
- getCompactionWorkingPath(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the working directory of the mob compaction.
- getCompactor() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getCompactPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCompactPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactPriority() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactSplitThread() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getComparator(Comparator<ColumnFamilyDescriptor>) - 接口 中的静态方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
Returns the Cell comparator used by this segment
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the comparator for comparing two cells.
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getCompareOperator() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- getCompareOperator() - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- getCompareOperator() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- getCompletedSequenceId() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getCompletedSequenceId() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
This does not really belong inside RegionLoad but its being done in the name of expediency.
- getCompletedSnapshotDir(SnapshotProtos.SnapshotDescription, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory for a specified snapshot.
- getCompletedSnapshotDir(String, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory for a completed snapshot.
- getCompletedSnapshots(RpcController, MasterProtos.GetCompletedSnapshotsRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getCompletedSnapshots(RpcController, MasterProtos.GetCompletedSnapshotsRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
List the currently available/stored snapshots.
- getCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getCompletionTimestamp() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- getCompressedSize(Compression.Algorithm, Compressor, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.io.encoding.EncodedDataBlock
-
Find the size of compressed data assuming that buffer will be compressed
using given algorithm.
- getCompression() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
- getCompression() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getCompressionAlgorithm() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getCompressionAlgorithm() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getCompressionType() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getCompressionType() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- getCompressionType() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getCompressionType() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getConcurrentCallsPerServer() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.BaseConfigurable
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
Returns the Configuration object used by this instance.
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Returns the Configuration object used by this instance.
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Returns the Configuration object used by this instance.
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Returns the Configuration object used by this instance.
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Returns the Configuration object used by this instance.
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Getter for fetching an unmodifiable map.
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Gets current config.
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get the configuration object required to communicate with this peer
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Get the configuration object required to communicate with this peer
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Gets the configuration object for this server.
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- getConfigurationManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConfigurationValue(String) - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getConfigurationValue(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getConfigurationValue(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getConfigurationValue(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Getter for accessing the configuration value by key
- getConfigurationValue(String) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
Getter for accessing the configuration value by key
- getConnectedZooKeeper(String, int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZooKeeperHelper
-
Get a ZooKeeper instance and wait until it connected before returning.
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getConnection() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getConnection() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getConnection() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
INTERNAL Used by unit tests and tools to do low-level
manipulations.
- getConnection() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
Returns the hosts' Connection to the Cluster.
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
Returns the hosts' Connection to the Cluster.
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
Returns the hosts' Connection to the Cluster.
- getConnection(SocketChannel, long) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Subclasses of HBaseServer can override this to provide their own
Connection implementations.
- getConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Returns a reference to the servers' connection.
- getConnectionConfiguration() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getConnectionMetrics() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getConnectorAddress(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the address that corresponds to a particular connector.
- getConnectString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- getConsistency() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Returns the consistency level for this operation
- getContext() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- getControllerException(RpcController) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
Retreivies exception stored during RPC invocation.
- getControllerException(RpcController) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Retreivies exception stored during RPC invocation.
- getCoordinatedStateManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCoordinatedStateManager() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Get CoordinatedStateManager instance for this server.
- getCoprocessorDescriptors() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Return the list of attached co-processor represented
- getCoprocessorDescriptors() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Return the list of attached co-processor represented by their name
className
- getCoprocessorDescriptors() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- getCoprocessorNames() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getCoprocessorNames() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
Return the RegionServer-level and Region-level coprocessors
- getCoprocessors() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getCoprocessors() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Used to create a parameter to the HServerLoad constructor so that
HServerLoad can provide information about the coprocessors loaded by this
regionserver.
- getCoprocessors() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the co-processors
- getCoprocessors() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getCoprocessors() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the co-processors
- getCoprocessorServiceRequest(Descriptors.MethodDescriptor, Message) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getCoprocessorServiceRequest(Descriptors.MethodDescriptor, Message, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getCorrupted() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getCorruptedMobFiles() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getCorruptedStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getCreatedTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getCreationTime() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getCurBlockCacheSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurBlockCacheUsed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurMemStoreUsed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurrent() - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Returns the User instance within current execution context.
- getCurrent() - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
- getCurrentCall() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Needed for features such as delayed calls.
- getCurrentClientVersionInfo() - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
- getCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getCurrentDataSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the occupied size of data blocks, in bytes.
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getCurrentFileName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
This is a convenience method that computes a new filename with a given using the current WAL
file-number
- getCurrentFileName(WAL) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
return the current filename from the current wal.
- getCurrentFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getCurrentHash() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
Get the current hash
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getCurrentNrHRS() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getCurrentParallelPutCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCurrentParallelPutCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCurrentSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the occupied size of the block cache, in bytes.
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getCurrentSnapshot(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
Returns the Master's view of a quota on the given tableName or null if the
Master has no quota information on that table.
- getCurrentSnapshot(Connection, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
Returns the Master's view of a quota on the given namespace or null if the
Master has no quota information on that namespace.
- getCurrentState(String) - 类 中的方法org.apache.hadoop.hbase.quotas.NamespaceQuotaSnapshotStore
-
- getCurrentState(T) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaSnapshotStore
-
- getCurrentState(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- getCurrentUserName() - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getCursor() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Return the cursor if this Result is a cursor result.
- getCursor() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- getCurTaskZKVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getData(String, Watcher, Stat) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
getData is an idempotent operation.
- getData(String, boolean, Stat) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
getData is an idempotent operation.
- getData(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Gets the data of the node.
- getData(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get znode data.
- getData() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.NodeAndData
-
已过时。
- getData() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.CreateAndFailSilent
-
- getData() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.SetData
-
- getDataAndWatch(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get the data at the specified znode and set a watch.
- getDataAndWatch(ZKWatcher, String, Stat) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get the data at the specified znode and set a watch.
- GetDataAsyncCallback() - 类 的构造器org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.GetDataAsyncCallback
-
- getDataBlockCount() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the number of data blocks currently cached in the block cache.
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getDataBlockEncoder() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getDataBlockEncoderById(short) - 枚举 中的静态方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
Find and create data block encoder for given id;
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- getDataBlockIndexReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getDataBlockIndexReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getDataChecksumType() - 枚举 中的方法org.apache.hadoop.hbase.util.ChecksumType
-
Function to get corresponding DataChecksum.Type.
- getDataCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getDataHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDataHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDataHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getDataInMemoryWithoutWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getDataInMemoryWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Ammount of data in the memstore but not in the WAL because mutations explicitly had their
WAL turned off.
- getDataInMemoryWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getDataLocality() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getDataLocality() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getDataMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDataMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDataMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getDataNodePort() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getDataNoWatch(ZKWatcher, String, Stat) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get the data at the specified znode without setting a watch.
- getDataSetWatchAsync() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- getDataSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getDataWriter() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- getDataWriter() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Get a writable interface into bloom filter data (the actual Bloom bits).
- getDate() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- getDate() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileName
-
Gets the date string.
- getDate() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
The date that hbase was compiled.
- getDateFromName(String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFileName
-
get date from MobFileName.
- getDaughterRegions(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the daughter regions by reading the corresponding columns of the catalog table
Result.
- getDeadline(RPCProtos.RequestHeader, Message) - 接口 中的方法org.apache.hadoop.hbase.ipc.PriorityFunction
-
Returns the deadline of the specified request.
- getDeadline() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Return the deadline of this call.
- getDeadline(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Based on the request content, returns the deadline of the request.
- getDeadline(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getDeadRegionServers() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the dead region servers
- getDeadRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getDeadRegionServers() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueInfo
-
- getDeadServerNames() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getDeadServerNames() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getDeadServers() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getDeadServers(long) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
Get the servers which died since a given timestamp.
- getDeadServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getDeadServersSize() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getDecodabet(int) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Returns one of the _SOMETHING_DECODABET byte arrays depending on the
options specified.
- getDecoder(InputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getDecoder(InputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getDecoder(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getDecryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getDecryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getDecryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Return a decryptor for decrypting data.
- getDeepCopy() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- getDefaultBlockSize(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBufferSize(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Returns the default buffer size to use during writes.
- getDefaultChecksumType() - 枚举 中的静态方法org.apache.hadoop.hbase.util.ChecksumType
-
- getDefaultCodec(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- getDefaultExecutor(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.HTable
-
- getDefaultHost(String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.DNS
-
Wrapper around DNS.getDefaultHost(String, String), calling
DNS.getDefaultHost(String, String, boolean) when available.
- getDefaultRegionLocation() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
- getDefaultReplication(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getDefaultValues() - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- getDefaultValues() - 类 中的静态方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getDelay(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- getDelegate() - 类 中的静态方法org.apache.hadoop.hbase.util.EnvironmentEdgeManager
-
Retrieves the singleton instance of the
EnvironmentEdge that is
being managed.
- getDelegateeForModification() - 类 中的方法org.apache.hadoop.hbase.client.ImmutableHColumnDescriptor
-
已过时。
- getDelegateeForModification() - 类 中的方法org.apache.hadoop.hbase.client.ImmutableHTableDescriptor
-
已过时。
- getDelegateeForModification() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getDelegateeForModification() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getDeleteBloomFilterMetadata() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Retrieves delete family Bloom filter metadata as appropriate for each
HFile version.
- getDeleteBloomFilterMetadata() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getDeleteFamilyBloomHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDeleteFamilyBloomHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDeleteFamilyBloomHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getDeleteFamilyBloomMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDeleteFamilyBloomMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDeleteFamilyBloomMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getDeleteFamilyCnt() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getDelimiter(byte[], int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
- getDelimiterInReverse(byte[], int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Find index of passed delimiter walking from end of buffer backwards.
- getDelPartitions() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest
-
Gets the del files.
- getDesc(List<Throwable>, List<? extends Row>, List<String>) - 异常错误 中的静态方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getDesc(Map<String, Integer>) - 异常错误 中的静态方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getDescription() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- getDescriptiveNameFromRegionStateForDisplay(RegionState, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionInfoDisplay
-
Get the descriptive name as
RegionState does it but with hidden
startkey optionally
- getDescriptiveNameFromRegionStateForDisplay(RegionState, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getDescriptor(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get a table descriptor.
- getDescriptor(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Method for getting the tableDescriptor
- getDescriptor(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getDescriptor() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getDescriptor() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getDescriptor() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getDeserialiserIdentifier() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializer
-
Get the identifier of this deserialiser.
- getDeserializer() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Returns CacheableDeserializer instance which reconstructs original object from ByteBuffer.
- getDeserializer(int) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
Get the cacheable deserializer as the given identifier Id
- getDeserializer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getDeserializer(Class<Cell>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization
-
- getDeserializer(Class<KeyValue>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
已过时。
- getDeserializer(Class<Mutation>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- getDeserializer(Class<Result>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- getDestination() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the destination server for the plan for this region.
- getDetails() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Returns the configuration that was provided previously
- getDetails() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- getDeterministicRandomSeed(Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Creates a deterministic hash code for store file collection.
- getDeviation() - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
- getDFSHedgedReadMetrics(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getDFSReplication() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getDFSReplication() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getDFSReplication() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getDictionary(Enum) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.CompressionContext
-
- getDirectMemorySize() - 类 中的静态方法org.apache.hadoop.hbase.util.DirectMemoryUtils
-
- getDirectMemoryUsage() - 类 中的静态方法org.apache.hadoop.hbase.util.DirectMemoryUtils
-
- getDispersionInformation() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- getDrainingServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getDropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- getDumpServlet() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getDumpServlet() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getDurability() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Get the current durability
- getDurability() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns the durability setting for the table.
- getDurability() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns the durability setting for the table.
- getDurability() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Returns the durability setting for the table.
- getEarliestFlushTimeForAllStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getEarliestFlushTimeForAllStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getEarliestMemStoreSeqNum(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getEarliestMemStoreSeqNum(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getEarliestMemStoreSeqNum(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- getEarliestMemStoreSeqNum(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Gets the earliest unflushed sequence id in the memstore for the store.
- getEdit() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
Gets the edit
- getEffectiveDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getEffectiveDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Returns effective durability from the passed durability and
the table descriptor.
- getEffectiveEncodingInCache(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getEffectiveEncodingInCache(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- getEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Get the current thread local effective user
- getEnclosingByteBuffer() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getEnclosingByteBuffers() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- getEncodedCompressedSize(Compression.Algorithm, Compressor) - 类 中的方法org.apache.hadoop.hbase.io.encoding.EncodedDataBlock
-
Estimate size after second stage of compression (e.g.
- getEncodedName() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getEncodedName() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getEncodedNameAsBytes() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getEncodedNameAsBytes() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getEncodedNodeName(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
Gets the full path node name for the log file being split.
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region's encoded name.
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getEncoder() - 枚举 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
Return new data block encoder for given algorithm type.
- getEncoder(OutputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getEncoder(OutputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getEncodingById(short) - 枚举 中的静态方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
- getEncodingCountsForTest() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getEncodingState() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- getEncodingState() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
- getEncryptionContext() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getEncryptionKey() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getEncryptionType() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getEncryptionType() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getEncryptionType() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getEncryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getEncryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getEncryptor() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Get an encryptor for encrypting data.
- getEnd() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getEndKey() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getEndKey() - 接口 中的方法org.apache.hadoop.hbase.util.KeyRange
-
- getEndKeyForDisplay(RegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionInfoDisplay
-
Get the end key for display.
- getEndKeyForDisplay(HRegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getEndKeys() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
Gets the ending row key for every region in the currently open table.
- getEndKeys() - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Gets the ending row key for every region in the currently open table.
- getEndpointObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessor
-
- getEndRow() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getEndRow() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the end row.
- getEndRow(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getEndRow() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getEndTime() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getEntries() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getEntry() - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse
-
- getEntry(short) - 接口 中的方法org.apache.hadoop.hbase.io.util.Dictionary
-
Gets an entry from the dictionary.
- getEntry(short) - 类 中的方法org.apache.hadoop.hbase.io.util.LRUDictionary
-
- getEntryBuffer() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getEnvironment() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
- getEnvironment() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- getErrorHandler() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getErrorHandler() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getErrorList() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- getErrorRate(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getErrors() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncRequestFuture
-
- getErrors() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getEstimatedNumberOfKvsScanned() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getEventLoopGroupConfig() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getEvictCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getEvictedBlocks() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStats
-
- getEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getEvictedFileCount() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Gets the number of items evicted from the mob file cache.
- getEvictionCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getEvictionCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getException(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- getException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- getException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
Get the value of the captured exception.
- getException() - 类 中的方法org.apache.hadoop.hbase.zookeeper.DeletionListener
-
Get the last exception which has occurred when re-setting the watch.
- getExceptionCount() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStats
-
- getExceptionIfFailed() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Get the exception that caused the snapshot to fail, if the snapshot has failed.
- getExceptionMessage() - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- getExceptionMessageAdditionalDetail() - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- getExceptionMessageAdditionalDetail() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getExceptionMessageAdditionalDetail() - 接口 中的方法org.apache.hadoop.hbase.client.RetryingCallable
-
- getExceptionMsg() - 类 中的方法org.apache.hadoop.hbase.regionserver.OperationStatus
-
- getExceptions() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStats
-
- getExceptions() - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- getExcludeNamespaces() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getExcludeTableCFsMap() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getExecutedWriteBufferPeriodicFlushes() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- getExecutorService() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getExecutorService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getExecutorService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getExhaustiveDescription() - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getExistingAssignmentPlan() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the favored nodes plan
- getExists() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- getExistsResource() - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getExtraHeader(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Get an extra header value.
- getExtraHeaders() - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Get all extra headers (read-only).
- getFailed() - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- getFailed() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- getFailed() - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
Return the failed exception, null if not failed.
- getFailed() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- getFailedCounterForEachRegionServer() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getFailedDeletions() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getFailedInserts() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFailedInserts() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFailedOn() - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
Returns any exception thrown during service method invocation, or null if no exception
was thrown.
- getFailedOperations() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncRequestFuture
-
- getFailedServersFromLogFolders() - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- getFailureCount() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- getFailureMobFiles() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getFailures() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getFamilies() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getFamilies() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
- getFamilies() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getFamilies() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
For use by FSWALEntry ONLY.
- getFamiliesKeys() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- getFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
- getFamily(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyArray() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
Contiguous bytes composed of legal HDFS filename characters which may start at any index in the
containing array.
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getFamilyByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getFamilyByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getFamilyByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyByteBuffer() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getFamilyCellMap() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Method for retrieving the put's familyMap
- getFamilyDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Given a particular region dir, return all the familydirs inside it
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyLength() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getFamilyLength(int) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getFamilyMap() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's familyMap
- getFamilyMap(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Map of qualifiers to values.
- getFamilyMap() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Getting the familyMap
- getFamilyMapOfLongs() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Before 0.95, when you called Increment#getFamilyMap(), you got back
a map of families to a list of Longs.
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyOffset() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getFamilyPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getFamilyPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getFamilyPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyPosition(int) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getFamilyPosition() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getFamilyString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getFavoredNodeList(String) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getFavoredNodes(List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- getFavoredNodes(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- getFavoredNodes(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getFavoredNodes(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPlan
-
- getFavoredNodesAsString(List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- getFavoredNodesForRegion(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FavoredNodesForRegion
-
Get the favored nodes mapping for this region.
- getFavoredNodesForRegion(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Return the favored nodes for a region given its encoded name.
- getFavoredNodesList(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- getFavoredNodesManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getFavoredNodesManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getFavoredNodesWithDNPort(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getFavoredServerPosition(List<ServerName>, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.favored.FavoredNodesPlan
-
Return the position of the server in the favoredNodes list.
- getFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Return the file context of the HFile this reader belongs to
- getFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Return the file context for the HFile this writer belongs to
- getFileContext() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getFileContext() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- getFileCount() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- getFileCreateTime() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getFileInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getFileInfoHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFileInfoHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFileInfoHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getFileInfoMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFileInfoMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFileInfoMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getFileList(Configuration, List<Path>, PathFilter) - 类 中的静态方法org.apache.hadoop.hbase.master.SplitLogManager
-
Get a list of paths that need to be split given a set of server-specific directories and
optionally a filter.
- getFilename() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- getFilename() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getFileName() - 类 中的方法org.apache.hadoop.hbase.mob.MobFile
-
Gets the file name.
- getFileName() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileName
-
Gets the file name.
- getFileName(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getFilenum() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getFileNumFromFileName(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getFilePath() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- getFilePath() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- getFilePath() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- getFilePath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getFilePermissions(FileSystem, Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Get the file permissions specified in the configuration, if they are
enabled.
- getFileRegion() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- getFilesForScan(byte[], boolean, byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the store files to scan for a Scan or Get request.
- getFilesForScan(byte[], boolean, byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getFileStatus(FileSystem) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
Get the FileStatus of the referenced file.
- getFileStatus() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- getFilesystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFileSystem() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFilesystem() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getFileSystem() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- getFilterArguments(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Returns the arguments of the filter from the filter string
- getFilteredReadRequestCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getFilteredReadRequestCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getFilteredReadRequestCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the total number of filtered read requests that have been issued against this region
- getFilteredReadRequestCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getFilteredReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of filtered read requests to regions hosted on this region server.
- getFilteredReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getFilterEntries() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getFilterEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
The number of Bloom filter entries in this store file, or an estimate
thereof, if the Bloom filter is not loaded.
- getFilterIfMissing() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Get whether entire row should be filtered if column is not found.
- getFilterName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Returns the filter name given a simple filter expression
- getFilters() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
Get the filters.
- getFilters() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- getFingerprint() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Compile the table and column family (i.e. schema) information
into a String.
- getFingerprint() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Compile the column family (i.e. schema) information
into a Map.
- getFingerprint() - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a Map containing a fingerprint which identifies the type and
the static schema components of a query (i.e. column families)
- getFingerprint() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Compile the table and column family (i.e. schema) information
into a String.
- getFirst(TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
- getFirst() - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- getFirst() - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
Return the first element stored in the pair.
- getFirst() - 类 中的方法org.apache.hadoop.hbase.util.PairOfSameType
-
Return the first element stored in the pair.
- getFirst() - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- getFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getFirstDayOfMonth(Calendar, Date) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Get the first day of the input date's month
- getFirstDayOfWeek(Calendar, Date) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Get the first day of the input date's week
- getFirstFailureAt() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getFirstKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getFirstKey() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the first key in this store file.
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getFirstKeyCellInBlock(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- getFirstKeyCellInBlock(ByteBuff) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder
-
Return first key in block as a cell.
- getFirstKeyCellInBlock(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- getFirstKeyCellInBlock(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder
-
- getFirstKeyCellInBlock(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- getFirstKeyCellInBlock(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexCodecV1
-
- getFirstKeyCellInBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getFirstKeyCellInBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getFirstRowKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getFirstRowKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
TODO left from
HFile version 1: move this to StoreFile after Ryan's
patch goes in to eliminate
KeyValue here.
- getFlattenAction() - 类 中的方法org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- getFlattenAction() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- getFlushableSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getFlushableSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getFlushableSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushableSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Flush will first clear out the data in snapshot if any (It will take a second flush
invocation to clear the current Cell set).
- getFlushableSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- getFlushedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of cells flushed to disk.
- getFlushedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total amount of data flushed to disk, in bytes.
- getFlushedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushedOutputFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedOutputFileSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushPolicyClass(TableDescriptor, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
Get FlushPolicy class for the given table.
- getFlushPolicyClassName() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
This gets the class associated with the flush policy which determines the
stores need to be flushed when flushing a region.
- getFlushPolicyClassName() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
This gets the class associated with the flush policy which determines the
stores need to be flushed when flushing a region.
- getFlushPolicyClassName() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
This gets the class associated with the flush policy which determines the stores need to be
flushed when flushing a region.
- getFlushPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- getFlushPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
已过时。
- getFlushQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size of the flush queue.
- getFlushRequester() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushRequester() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFlushThroughputController() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushThroughputController() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFormatVersion(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- getFreeMemory() - 类 中的方法org.apache.hadoop.hbase.util.JVM
-
- getFreeSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the free size of the block cache, in bytes.
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getFsTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getGcCollectorBeans() - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getGeneralBloomFilterMetadata() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Retrieves general Bloom filter metadata as appropriate for each
HFile version.
- getGeneralBloomFilterMetadata() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Returns a buffer with the Bloom filter metadata.
- getGeneralBloomMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getGeneralBloomMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getGeneralBloomMetaHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getGeneralBloomMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getGeneralBloomMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getGeneralBloomMetaMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getGeneralQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the general queue for metrics.
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getGlobalLimiter() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
Return the limiter associated with this quota.
- getGlobalMemStoreDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- getGlobalMemStoreHeapLowerMark(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Retrieve configured size for global memstore lower water mark as fraction of global memstore
size.
- getGlobalMemStoreHeapPercent(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Retrieve global memstore configured size as percentage of total heap.
- getGlobalMemStoreHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- getGlobalMemStoreOffHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- getGlobalMemStoreSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- getGroupName(String) - 类 中的静态方法org.apache.hadoop.hbase.AuthUtil
-
Returns the actual name for a group principal (stripped of the
group prefix).
- getGroupNames() - 类 中的方法org.apache.hadoop.hbase.security.User
-
Returns the list of groups of which this user is a member.
- getGroupNames() - 类 中的方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- getHandler(String, double, BlockingQueue<CallRunner>, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.FastPathBalancedQueueRpcExecutor
-
- getHandler(String, double, BlockingQueue<CallRunner>, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Override if providing alternate Handler implementation.
- getHashCount() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- getHashType() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- getHashType(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.Hash
-
This utility method converts the name of the configured
hash type to a symbolic constant.
- getHBaseServerWrapper() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- getHBaseVersion() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getHBaseVersion() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getHBaseVersion() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getHBaseVersion() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getHDFSBlockDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getHDFSBlockDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getHDFSBlocksDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getHeader() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getHeader(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- getHeaders() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- getHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- getHeapMemoryManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getHeapMemoryManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Get a MetricsHeapMemoryManagerSource
- getHeapMemoryManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- getHeapMemoryManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getHeapOccupancy() - 类 中的方法org.apache.hadoop.hbase.client.RegionLoadStats
-
- getHeapOccupancyPercent() - 类 中的方法org.apache.hadoop.hbase.client.backoff.ServerStatistics.RegionStatistics
-
- getHeapOccupancyPercent() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- getHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- getHeapSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- getHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getHedgedReadOps() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getHedgedReadWins() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getHFileBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockWithScanInfo
-
- getHFileCleaner() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getHFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDecodingContext
-
- getHFileContext() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultDecodingContext
-
- getHFileContext() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- getHFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
- getHFilecorruptionChecker() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getHFileFromBackReference(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the full path of the HFile referenced by the back reference
- getHFileFromBackReference(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the full path of the HFile referenced by the back reference
- getHFileMinorVersion() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getHfileName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getHFileName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- getHFileNames(Configuration, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
Returns the store file names in the snapshot.
- getHFileReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getHFilesChecked() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getHFilesSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getHFilesSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getHFileVersion() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getHfs() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
- getHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getHitCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getHitCachingRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCachingRatioPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getHitRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitRatio() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Gets the hit ratio to the mob file cache.
- getHitRatioPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHost() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
- getHostAndPort() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getHostAndWeights() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- getHostname() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- getHostname() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getHostname() - 异常错误 中的方法org.apache.hadoop.hbase.ipc.RemoteWithExtrasException
-
- getHostname() - 类 中的方法org.apache.hadoop.hbase.net.Address
-
- getHostname(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getHostname() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getHostnameLowerCase() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getHostnamePort(int) - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getHostnamePort() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getHRegion() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getHRegionInfo() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getHRegionInfo() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- getHris() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getHTableMultiplexerStatus() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
- getHtd() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getHttpClient() - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
- getId() - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
This method allows you to retrieve the identifier for the operation if one
was set.
- getId() - 枚举 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
- getId() - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- getId() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartition
-
- getId() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getId() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get the identifier of this peer
- getId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Get the identifier of this peer
- getID() - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- getId() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKClusterId
-
- getIdentifier(String, SecretManager<T>) - 类 中的静态方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- getIfCached(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
- getImmutableSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getImplementationClassName() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getIndexType() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getInfo(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityInfo
-
Returns the security configuration associated with the given service name.
- getInfoPort(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getInfoServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getInfoServerPort() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getInfoServerPort() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getInitialCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getInitialDelay() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- getInitializedEvent() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getInitializedEvent() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getInitialResponse() - 类 中的方法org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- getInlineBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- getInlineBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getInlineBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
The type of blocks this block writer produces.
- getInMemoryCompaction() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getInMemoryCompaction() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getInMemoryCompaction() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getInMemoryCompactionPool() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- getInputStream() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
Get a SASL wrapped InputStream.
- getInstance() - 接口 中的静态方法org.apache.hadoop.hbase.CellComparator
-
A comparator for ordering cells in user-space tables.
- getInstance(Class<T>) - 类 中的静态方法org.apache.hadoop.hbase.CompatibilityFactory
-
- getInstance(Class<T>) - 类 中的静态方法org.apache.hadoop.hbase.CompatibilitySingletonFactory
-
Get the singleton instance of Any classes defined by compatibiliy jar's
- getInstance() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getInstance() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifierFactory
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcementFactory
-
Returns an instance of this factory.
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.NoLimitScannerContext
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.rest.RESTServlet
-
- getInstance(Configuration, UserProvider) - 类 中的静态方法org.apache.hadoop.hbase.rest.RESTServlet
-
- getInstance(FileSystem, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getInstance(int) - 类 中的静态方法org.apache.hadoop.hbase.util.Hash
-
Get a singleton instance of hash function of a given type.
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.Hash
-
Get a singleton instance of hash function of a type
defined in the configuration.
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.util.JenkinsHash
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.util.MurmurHash
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.util.MurmurHash3
-
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
- getInt(Configuration, String, String, int) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Get the value of the name property as an int, possibly
referring to the deprecated name of the configuration property.
- getInt() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns the int value at the current position.
- getInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the int at the given index.
- getInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Fetches the int at the given index.
- getInt() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns the int value at the current position.
- getInt() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getInt(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getInt() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getInt(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Retrieve the int value at index
- getInt() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next int value from this range.
- getIntAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the int value at the given offset from current position.
- getIntAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- getIntAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getIntermediateIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getIntermediateIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getIntermediateIndexHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getIntermediateIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getIntermediateIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getIntermediateIndexMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getIp4Address() - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- getIp6Address() - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- getIpAddress() - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- getIsActiveMaster() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Whether this master is the active master
- getIsActiveMaster() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getIsolationLevel() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- getIterator(int) - 类 中的方法org.apache.hadoop.hbase.io.encoding.EncodedDataBlock
-
Provides access to compressed value.
- getIterator(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- getIterator() - 类 中的方法org.apache.hadoop.hbase.rest.TableScanResource.CellSetModelStream
-
- getIv() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- getIv() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- getIv() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Get the initialization vector
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- getIvLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Return the expected initialization vector length, in bytes, or 0 if not applicable
- getIvLength() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Get the expected length for the initialization vector
- getIvLength() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Get the expected length for the initialization vector
- getJar(Class) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.JarFinder
-
Returns the full path to the Jar containing the class.
- getJarPath() - 接口 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptor
-
- GetJavaProperty - org.apache.hadoop.hbase.util中的类
-
A generic way for querying Java properties.
- getKeepDeletedCells() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getKeepDeletedCells() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getKeepDeletedCells() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getKeepDeletedCells() - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- getKeepDeletedCells() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getKeepDeletedCells() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getKey(String) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.KeyProvider
-
Retrieve the key for a given key aliase
- getKey(String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- getKey() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
From the current position creates a cell using the key part
of the current buffer
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Gets the current key in the form of a cell.
- getKey() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
Do not use unless you have to.
- getKey() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
Gets the key
- getKeyBytes() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getKeyBytesHash() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getKeyCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- getKeyCount() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getKeyCount() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- getKeyDataStructureSize(int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Computes the number of bytes that a KeyValue instance with the provided
characteristics would take up in its underlying data structure for the key.
- getKeyFormat() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- getKeyForNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Return the key length required by this cipher, in bytes
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getKeyLength() - 类 中的方法org.apache.hadoop.hbase.SizeCachedKeyValue
-
- getKeyOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getKeyOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getKeyProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
- getKeys(String[]) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.KeyProvider
-
Retrieve keys for a given set of key aliases
- getKeys(String[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- getKeyString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getKeyString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getKeyString() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getKeyString() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getKeyValueDataStructureSize(int, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Computes the number of bytes that a KeyValue instance with the provided
characteristics would take up for its underlying data structure.
- getKeyValueDataStructureSize(int, int, int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Computes the number of bytes that a KeyValue instance with the provided
characteristics would take up for its underlying data structure.
- getKeyValueDataStructureSize(int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
Computes the number of bytes that a KeyValue instance with the provided
characteristics would take up for its underlying data structure.
- getKeyValues(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Retrieve a list of key value pairs from configuration, stored under the provided key
- getKeyValues(Configuration, String, char) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Retrieve a list of key value pairs from configuration, stored under the provided key
- getL1CacheHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Hit count of L1 cache.
- getL1CacheHitRatio() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Hit ratio of L1 cache.
- getL1CacheMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Miss count of L1 cache.
- getL1CacheMissRatio() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Miss ratio of L1 cache.
- getL2CacheHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Hit count of L2 cache.
- getL2CacheHitRatio() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Hit ratio of L2 cache.
- getL2CacheMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Miss count of L2 cache.
- getL2CacheMissRatio() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Miss ratio of L2 cache.
- getL2CacheStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- getLabels() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getLargeCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getLargeCompactionQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getLargeCompactionThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getLast(TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
- getLastAttemptAt() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- getLastCell() - 类 中的方法org.apache.hadoop.hbase.util.BloomContext
-
- getLastCompactSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getLastCompactSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getLastFlushedSequenceId(RpcController, RegionServerStatusProtos.GetLastFlushedSequenceIdRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastFlushedSequenceId(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getLastGcDuration(ObjectName) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getLastIndexExclusive() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getLastKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getLastKey() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the last key in this store file.
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getLastMajorCompactionAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getLastMajorCompactionAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getLastMajorCompactionTimestamp(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the timestamp of the last major compaction for the passed table
The timestamp of the oldest HFile resulting from a major compaction of that table,
or 0 if no such HFile could be found.
- getLastMajorCompactionTimestamp(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the timestamp of the last major compaction for the passed table.
- getLastMajorCompactionTimestamp(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getLastMajorCompactionTimestamp(RpcController, MasterProtos.MajorCompactionTimestampRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getLastMajorCompactionTimestamp(TableName) - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getLastMajorCompactionTimestamp(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getLastMajorCompactionTimestamp(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLastMajorCompactionTimestamp(RpcController, MasterProtos.MajorCompactionTimestampRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastMajorCompactionTimestamp(TableName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLastMajorCompactionTimestamp() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getLastMajorCompactionTimestamp() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getLastMajorCompactionTimestampForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the timestamp of the last major compaction for the passed region.
- getLastMajorCompactionTimestampForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the timestamp of the last major compaction for the passed region.
- getLastMajorCompactionTimestampForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getLastMajorCompactionTimestampForRegion(RpcController, MasterProtos.MajorCompactionTimestampForRegionRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getLastMajorCompactionTimestampForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLastMajorCompactionTimestampForRegion(RpcController, MasterProtos.MajorCompactionTimestampForRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastMajorCompactionTimestampForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLastMajorCompactionTs() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getLastMajorCompactionTsForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getLastMajorCompactionTsForTable(TableName) - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getLastQuery() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- getLastRegionServerUpdate() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get the timestamp at which the last change occurred to the list of region servers to replicate
to.
- getLastReportTimestamp() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getLastReportTimestamp() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getLastRowKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getLastRowKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
TODO left from
HFile version 1: move this to StoreFile after
Ryan's patch goes in to eliminate
KeyValue here.
- getLastRowKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getLastSequenceId(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getLastSequenceId(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.LastSequenceId
-
- getLastSequenceId(String, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Read the max sequence id of the specific region for a given peer.
- getLastUpdate() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- getLatestDate() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- getLatestVersionOnly() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Get whether only the latest version of the column value should be compared.
- getLeafIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getLeafIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getLeafIndexHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getLeafIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getLeafIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getLeafIndexMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getLeases() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getLeases() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getLegacyKeyComparatorName() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
The HFileV2 file format's trailer contains this class name.
- getLegacyKeyComparatorName() - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
The HFileV2 file format's trailer contains this class name.
- getLength() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the length of the split.
- getLength() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
Retrieve the maximum length (in bytes) of encoded values.
- getLength() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getLength() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
The length of the range.
- getLength() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- getLength() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.WriterBase
-
- getLevel0Files() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getLevel0MinFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
Returns the limit, in bytes, of the target (e.g. table, namespace).
- getLimit() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getLimit() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Return the current limit
- getListener() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler.Context
-
- getListenerAddress() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Return the socket (ip+port) on which the RPC server is listening to.
- getListeners() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Get a copy of current registered listeners
- getListOfRegionServers() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationTracker
-
Returns a list of other live region servers in the cluster.
- getListOfRegionServers() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationTrackerZKImpl
-
Return a snapshot of the current region servers.
- getListOfReplicators() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get a list of all region servers that have outstanding replication queues.
- getLiveMasters() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getLiveRegionServers() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getLiveServerMetrics() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getLiveServerMetrics() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getLiveServersFromWALDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- getLoad(ServerName) - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getLoad(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getLoad() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getLoadBalancer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLoadBalancer() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLoadBalancerClassName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLoadColumnFamiliesOnDemandValue() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Get the raw loadColumnFamiliesOnDemand setting; if it's not set, can be null.
- getLoadedCachedBlocksByFile(Configuration, BlockCache) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- getLoadedCoprocessors() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- getLoadedCoprocessors() - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
The set of loaded coprocessors is stored in a static set.
- getLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getLoadSequence() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getLoadSequence() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getLoadStatistics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getLocalConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getLocalTableDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getLocation(boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- getLocation() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getLocation() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region's location as an array.
- getLocationSeqNum() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- getLock() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- getLock(long) - 类 中的方法org.apache.hadoop.hbase.util.IdReadWriteLock
-
Get the ReentrantReadWriteLock corresponding to the given id
- getLockedRows() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getLockEntry(long) - 类 中的方法org.apache.hadoop.hbase.util.IdLock
-
Blocks until the lock corresponding to the given id is acquired.
- getLockManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLockManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLocks() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get locks.
- getLocks() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
List locks.
- getLocks() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getLocks(RpcController, MasterProtos.GetLocksRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getLocks() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLocks(RpcController, MasterProtos.GetLocksRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLocks() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Get locks
- getLogCleaner() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
iff the given WALFactory is using the DefaultWALProvider for meta and/or non-meta, count the
size of files (only rolled). if either of them aren't, count 0 for that provider.
- getLogFileSize(WAL) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
returns the size of rolled WAL files.
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getLogFileSize() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Get size of the log files this provider is managing
- getLogFileSizeIfBeingWritten(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
if the given path is being written currently, then return its length.
- getLogsCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getLogSeqNum() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getLogsSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getLong() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns the long value at the current position.
- getLong(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the long at the given index.
- getLong(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Fetches the long at the given index.
- getLong() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns the long value at the current position.
- getLong() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getLong(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getLong(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getLong() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getLong(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Retrieve the long value at index
- getLong() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next long value from this range.
- getLongAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the long value at the given offset from current position.
- getLongAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- getLongAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getLongValue() - 类 中的方法org.apache.hadoop.hbase.Size
-
get the value
- getLowest(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getLowestTimestamp(Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Gets lowest timestamp from candidate StoreFiles
- getMajorCompactedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMajorCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of cells processed during major compactions.
- getMajorCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMajorCompactedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMajorCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total amount of data processed during major compactions, in bytes.
- getMajorCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Returns the major version of this HFile format
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- getMap() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Map of families to all versions of its qualifiers and values.
- getMapperClass(JobContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Get the application's mapper class.
- getMaster() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getMaster() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getMaster() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Returns a MasterKeepAliveConnection to the active master
- getMaster() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionUtils.ShortCircuitingClusterConnection
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getMaster(int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.util.JVMClusterUtil.MasterThread
-
- getMasterActiveTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterAddress() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get the address of the current master if one is available.
- getMasterAddress(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get the address of the current master if one is available.
- getMasterAddress(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get master address.
- getMasterAddressTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMasterCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterCoprocessorNames() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Helper that delegates to getClusterMetrics().getMasterCoprocessorNames().
- getMasterCoprocessorNames() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getMasterCoprocessorNames() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getMasterCoprocessorNames() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getMasterCoprocessors() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getMasterCoprocessors() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getMasterCoprocessors() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterFileSystem() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterFinishedInitializationTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterInfoPort() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the info port of the current master if one is available.
- getMasterInfoPort() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the info port of the current master if one is available.
- getMasterInfoPort() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getMasterInfoPort() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getMasterInfoPort() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get the info port of the current master of one is available.
- getMasterInfoPort(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Get master info port.
- getMasterInitializationTime() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the time in Millis when the master finished initializing/becoming the active master
- getMasterInitializationTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getMasterMetrics() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterName() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
Returns detailed information about the current master
ServerName.
- getMasterName() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getMasterObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessor
-
- getMasterObserver() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- getMasterObserver() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- getMasterProcedureExecutor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterProcedureExecutor() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterProcedureManagerHost() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterProcedureManagerHost() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterQuotaManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterQuotaManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterQuotaStates(ClusterConnection, int) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
- getMasterQuotaStates(Connection, RpcControllerFactory, RpcRetryingCallerFactory, int) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
Executes an RPC tot he HBase master to fetch its view on space quotas.
- getMasterRegionSizes(ClusterConnection, int) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
- getMasterRegionSizes(Connection, RpcControllerFactory, RpcRetryingCallerFactory, int) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
Executes an RPC to the HBase master to fetch its view on the Region sizes.
- getMasterReportedTableSizes(Connection) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
Fetches the table sizes on the filesystem as tracked by the HBase Master.
- getMasterRpcServices() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasters() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getMasterServices() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.HasMasterServices
-
已过时。
- getMasterStartTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getMasterWalManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterWalManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMax(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the maximum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getMax() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMax() - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
- getMax() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- getMax() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- getMax() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- getMaxAllowedOperationTime() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getMaxAttempts() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- getMaxAttempts() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- getMaxCacheSize() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStats
-
- getMaxChunkSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- getMaxColumn() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- getMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- getMaxCompactionQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getMaxCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxFileDescriptorCount() - 类 中的方法org.apache.hadoop.hbase.util.JVM
-
Get the number of the maximum file descriptors the system can use.
- getMaxFileSize() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns the maximum size upto which a region can grow to after which a
region split is triggered.
- getMaxFileSize() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns the maximum size upto which a region can grow to after which a
region split is triggered.
- getMaxFileSize() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Returns the maximum size upto which a region can grow to after which a region
split is triggered.
- getMaxFlushedSeqId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMaxFlushedSeqId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMaxFlushQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getMaxFlushQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxFold(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getMaxHeapSize() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getMaxHeapSize() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getMaximumTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getMaximumTimestamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the max timestamp of all the cells in the store file.
- getMaxKeys() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- getMaxKeys() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getMaxKeys() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- getMaxKeys(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getMaxKeyValueSize() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getMaxKeyValueSize() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getMaxKeyValueSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.HTable
-
- getMaxLatency() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getMaxLatencyForEachRegionServer() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getMaxMasterTimeout(Configuration, SnapshotProtos.SnapshotDescription.Type, long) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- getMaxMemStoreTS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxMemStoreTS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getMaxMemStoreTS() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxMemStoreTS() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get max of the MemstoreTS in the KV's in this store file.
- getMaxMemStoreTSInList(Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Return the largest memstoreTS found across all storefiles in the given list.
- getMaxMerge() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getMaxOverlapsToSideline() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getMaxPriority() - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- getMaxRegions(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- getMaxRegionSequenceId(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Get the max sequence id which is stored in the region directory. -1 if none.
- getMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getMaxResultSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getMaxResultsPerColumnFamily() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's maximum number of values
to return per Column Family
- getMaxResultsPerColumnFamily() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getMaxSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getMaxSequenceId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxSequenceId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMaxSequenceIdInList(Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Return the highest sequence ID found across all storefiles in the given list.
- getMaxSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the Max size of the block cache, in bytes.
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get the maximum size of this cache.
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getMaxSleepTime() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- getMaxSplitImbalance() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getMaxStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getMaxStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getMaxStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxStoreSeqId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMaxStoreSeqId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMaxTables(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- getMaxThroughput() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- getMaxTime() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
- getMaxTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getMaxValue() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
returns the maximum value for this type T
- getMaxValues() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's maximum number of version
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getMBeanAttributeInfo(ObjectName) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getMD5AsHex(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.MD5Hash
-
Given a byte array, returns in MD5 hash as a hex string.
- getMD5AsHex(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.MD5Hash
-
Given a byte array, returns its MD5 hash as a hex string.
- getMean() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMean() - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
- getMechanismName() - 枚举 中的方法org.apache.hadoop.hbase.security.AuthMethod
-
Return the SASL mechanism name
- getMedian(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a List containing sum of values and sum of weights.
- getMemoryPools() - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getMemoryType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
- getMemoryType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getMemStoreDataSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMemStoreDataSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMemStoreFlushSize() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Returns the size of the memstore after which a flush to filesystem is
triggered.
- getMemStoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns the size of the memstore after which a flush to filesystem is
triggered.
- getMemStoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Returns the size of the memstore after which a flush to filesystem is triggered.
- getMemStoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMemStoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMemStoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- getMemStoreFlushSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getMemStoreHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMemStoreHeapSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMemStoreLimit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getMemstoreLoad() - 类 中的方法org.apache.hadoop.hbase.client.RegionLoadStats
-
- getMemStoreLoad() - 类 中的方法org.apache.hadoop.hbase.client.RegionLoadStats
-
- getMemStoreLoadPercent() - 类 中的方法org.apache.hadoop.hbase.client.backoff.ServerStatistics.RegionStatistics
-
- getMemStoreOffHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMemStoreOffHeapSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size of the memstore on this region server.
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the size of the memstore on this region server.
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMemstoreSizeInMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getMemStoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getMemStoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getMemStoresSize(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the memory store size against this table
- getMemStoresSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getMergeMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- getMergeMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- getMergePlanCount() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMergePlanCount() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the number of region merge plans executed.
- getMergePlanCount() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getMergeProcMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getMergeRegions(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the merge regions by reading the corresponding columns of the catalog table
Result.
- getMergesDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getMergingAction() - 类 中的方法org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- getMergingAction() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.SpaceLimitingException
-
- getMetaBlock(String, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getMetaBlock(String, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getMetaData() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
For use by bucketcache.
- getMetadataValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
Only used by the Striped Compaction Policy
- getMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMetaHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getMetaHTable(Connection) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Callers should call close on the returned
Table instance.
- getMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getMetaKeyForRegion(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the row key to use for this regionInfo
- getMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMetaMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getMetaOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getMetaRegionLocation(ZKWatcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Gets the meta region location, if available.
- getMetaRegionLocation(ZKWatcher, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Gets the meta region location, if available.
- getMetaRegions(ZKWatcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Gets the meta regions for the given path with the default replica ID.
- getMetaRegions(ZKWatcher, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Gets the meta regions for the given path and replica ID.
- getMetaRegionsAndLocations(ZKWatcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
- getMetaRegionsAndLocations(ZKWatcher, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Gets the meta regions and their locations for the given path and replica ID.
- getMetaRegionState(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Load the meta region state from the meta server ZNode.
- getMetaRegionState(ZKWatcher, int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Load the meta region state from the meta server ZNode.
- getMetaReplicaCallTimeoutMicroSecondScan() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getMetaReplicaIdFromZnode(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
Parse the meta replicaId from the passed znode
- getMetaReplicaNodes() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Get the znodes corresponding to the meta replicas from ZK
- getMetaTableLocator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMetaTableLocator() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getMetaTableObserver() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMetaTableObserver() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMetaWALProvider() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getMetaWriter() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- getMetaWriter() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Get a writable interface into bloom filter meta data.
- getMethod() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- getMethod() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getMethodDescriptor(String, Descriptors.ServiceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getMetricRegistryForMaster() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the master level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.io.MetricsIOSourceImpl
-
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the metrics instance for reporting RPC call statistics
- getMetrics() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Returns the metrics instance for reporting RPC call statistics
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterProcSourceImpl
-
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSourceImpl
-
Yes this is a get function that doesn't return anything.
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
Yes this is a get function that doesn't return anything.
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSourceImpl
-
Yes this is a get function that doesn't return anything.
- getMetrics() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getMetrics(MetricsCollector, boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- getMetricsProcSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getMetricsProcSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getMetricsQuotaSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIO
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- getMidpoint(CellComparator, Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Try to return a Cell that falls between left and
right but that is shorter; i.e. takes up less space.
- getMin(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the minimum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getMin() - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
Gets the minimum timestamp requested by filter.
- getMin() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMin() - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
- getMin() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- getMin() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- getMin() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- getMinColumn() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- getMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- getMinimumTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getMinimumTimestamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the min timestamp of all the cells in the store file.
- getMinIndexNumEntries(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- getMinorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Returns the minor version of this HFile format
- getMinorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- getMinSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getMinSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getMinSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getMinStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMinStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getMinStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getMinStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMinStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMinValue() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- getMinVersions() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getMinVersions() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getMinVersions() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getMinVersions() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getMisplacedRegions(Map<RegionInfo, ServerName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- getMissCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMissCachingRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Gets the count of misses to the mob file cache.
- getMissedMobFiles() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getMissing() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getMissingLogsCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getMissingStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getMissRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMobCompactionState(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Gets the mob file compaction state for a specific table.
- getMobCompactPartitionPolicy() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
Get the mob compact partition policy for this family
- getMobCompactPartitionPolicy() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getMobCompactPartitionPolicy() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getMobFamilyPath(Configuration, TableName, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the family dir of the mob files.
- getMobFamilyPath(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the family dir of the mob files.
- getMobFileCache() - 类 中的方法org.apache.hadoop.hbase.mob.MobCacheConfig
-
Gets the MobFileCache.
- getMobFileCacheAccessCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the count of accesses to the mob file cache.
- getMobFileCacheCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the count of cached mob files.
- getMobFileCacheEvictedCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of items evicted from the mob file cache.
- getMobFileCacheHitPercent() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the hit percent to the mob file cache.
- getMobFileCacheMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the count of misses to the mob file cache.
- getMobFileName(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the mob file name from the mob ref cell.
- getMobFilesChecked() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getMobFlushCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getMobFlushCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of the flushes in mob-enabled stores.
- getMobFlushedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getMobFlushedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of mob cells flushed to disk.
- getMobFlushedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getMobFlushedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the total amount of mob cells flushed to disk, in bytes.
- getMobHome(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the root dir of the mob files.
- getMobPath() - 类 中的方法org.apache.hadoop.hbase.io.HFileLink
-
- getMobRegionInfo(TableName) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the RegionInfo of the mob files.
- getMobRegionPath(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the region dir of the mob files.
- getMobScanCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getMobScanCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the number of scanned mob cells.
- getMobScanCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getMobScanCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Gets the total amount of scanned mob cells, in bytes.
- getMobStoreFilePercentage() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getMobStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getMobStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getMobThreshold() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
Gets the mob threshold of the family.
- getMobThreshold() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getMobThreshold() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getMobValueLength(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the mob value length from the mob ref cell.
- getModificationTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getModificationTimeStamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getModificationTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getModificationTimeStamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getModificationTimestamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Get the modification time of this store file.
- getMostLoadedRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Get the top N most loaded regions this server is serving so we can tell the
master which regions it can reallocate if we're overloaded.
- getMultiple(long, int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.ByteBufferArray
-
Transfers bytes from this buffer array into the given destination array
- getMultiple(long, int, byte[], int) - 类 中的方法org.apache.hadoop.hbase.util.ByteBufferArray
-
Transfers bytes from this buffer array into the given destination array
- getMultipleRowResource(String, String) - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getMutations() - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- getMutationsFromWALEntry(AdminProtos.WALEntry, CellScanner, Pair<WALKey, WALEdit>, Durability) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
This function is used to construct mutations from a WALEntry.
- getMVCC() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMvcc() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getMvccFromOperationContext(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Return the write point of the previous succeed operation.
- getMvccReadPoint(Scan) - 类 中的静态方法org.apache.hadoop.hbase.client.PackagePrivateFieldAccessor
-
- getMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getMyEphemeralNodeFileName() - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
Get the name of the file used to store the znode contents
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
Gets the fully qualified table name instance of the table that this
AsyncBufferedMutator writes to.
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Gets the fully qualified table name instance of this table.
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableRegionLocator
-
Gets the fully qualified table name instance of the table whose region we want to locate.
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Gets the fully qualified table name instance of the table that this BufferedMutator writes to.
- getName() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
- getName() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Gets the fully qualified table name instance of this table.
- getName() - 枚举 中的方法org.apache.hadoop.hbase.client.security.SecurityCapability
-
- getName() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Gets the fully qualified table name instance of this table.
- getName() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- getName() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getName() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getName() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getName() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Return this Cipher's name
- getName() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.CipherProvider
-
Return the provider's name
- getName() - 类 中的方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- getName() - 类 中的方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Returns this reader's "name".
- getName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getName() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.BasicMemStoreCompactionStrategy
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.EagerMemStoreCompactionStrategy
-
- getName() - 异常错误 中的方法org.apache.hadoop.hbase.regionserver.Leases.LeaseStillHeldException
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
Human readable name of the processor
- getName() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getName() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Get group name.
- getName() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- getName() - 类 中的方法org.apache.hadoop.hbase.security.User
-
Returns the full user name.
- getName() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getName() - 枚举 中的方法org.apache.hadoop.hbase.util.ChecksumType
-
returns the name of this checksum type
- getName() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- getName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getNameAsString() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getNameAsString() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- getNameAsString() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getNameAsString() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getNameAsString() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Get the name of the table as a String
- getNameAsString() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getNameAsString() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getNamedThreadFactory(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Returns a
ThreadFactory that names each created thread uniquely,
with a common prefix.
- getNameForThrottling(HStore, String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputControlUtil
-
Generate a name for throttling, to prevent name conflict when multiple IO operation running
parallel on the same store.
- getNameFromId(short) - 枚举 中的静态方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
Find and return the name of data block encoder for the given id.
- getNameInBytes() - 枚举 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
- getNamespace(String) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
Get a Namespace
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- getNamespace() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the name of the namespace this table is in.
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getNamespaceAsString() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getNamespaceDescriptor(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get a namespace descriptor by name.
- getNamespaceDescriptor(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get a namespace descriptor by name
- getNamespaceDescriptor(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getNamespaceDescriptor(RpcController, MasterProtos.GetNamespaceDescriptorRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getNamespaceDescriptor(RpcController, MasterProtos.GetNamespaceDescriptorRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getNamespaceDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Returns the Path object representing
the namespace directory under path rootdir
- getNamespaceFilter() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
- getNamespaceFromRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getNamespaceInstanceResource(String) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Dispatch to NamespaceInstanceResource for getting list of tables.
- getNamespaceInstanceResource(String) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesResource
-
Dispatch to NamespaceInstanceResource
- getNamespaceLimiter(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified namespace.
- getNamespaceName() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.NamespaceFuture
-
- getNamespaceQuota(Connection, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getNamespaceQuotaManager() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- getNamespaceQuotaSnapshots() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaObserverChore
-
Returns an unmodifiable view over the current
SpaceQuotaSnapshot objects
for each HBase namespace with a quota defined.
- getNamespaceResource() - 类 中的方法org.apache.hadoop.hbase.rest.RootResource
-
- getNamespaceRowKey(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getNamespaceRowKeyRegex(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getNamespaces() - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
Get all Namespaces
- getNamespaces() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get replicable namespace set of this peer
- getNamespaces() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getNamespaces() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Get replicable namespace set of this peer
- getNamespaceSpaceUtilization() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Gets the space usage and limit for each namespace.
- getNamespaceSpaceUtilization() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNamespaceTableCfWALEntryFilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a WALEntryFilter for checking replication per table and CF.
- getNameWithNamespaceInclAsString() - 类 中的方法org.apache.hadoop.hbase.TableName
-
Ideally, getNameAsString should contain namespace within it,
but if the namespace is default, it just returns the name.
- getNeedResults() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getNegotiatedQop() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getNewAssignmentPlan() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getNewExternalChunk(ChunkCreator.ChunkType) - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- getNewExternalChunk(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- getNewExternalChunk(ChunkCreator.ChunkType) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- getNewExternalChunk(int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- getNewExternalChunk(ChunkCreator.ChunkType) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- getNewExternalChunk(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- getNewRpcRetryingCallerFactory(Configuration) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Returns a new RpcRetryingCallerFactory from the given Configuration.
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
If the filter returns the match code SEEK_NEXT_USING_HINT, then it should also tell which is
the next key it must seek to.
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
Filters that are not sure which key must be next seeked to, can inherit
this implementation that, by default, returns a null Cell.
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithAND
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithOR
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FuzzyRowFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
- getNextCellHint(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
Pick the next cell that the scanner should seek to.
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockWithScanInfo
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getNextIndexedKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- getNextIndexedKey() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- getNextQueue() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.QueueBalancer
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getNextRow(Cell, NavigableSet<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getNextRowOrNextColumn(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Retrieve the MatchCode for the next row or column
- getNextRowOrNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- getNextRowOrNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- getNextRowOrNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- getNextSequenceId(WAL) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Method to safely get the next sequence number.
- getNode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
- getNode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.NodeAndData
-
已过时。
- getNodeName(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get the name of the current node from the specified fully-qualified path.
- getNonce() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- getNonce() - 类 中的方法org.apache.hadoop.hbase.util.NonceKey
-
- getNonce() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getNonce() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getNonceGenerator() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.client.NonceGenerator
-
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.client.PerClientRandomNonceGenerator
-
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.util.NonceKey
-
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getNonceManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getNonceManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Only required for "old" log replay; if it's removed, remove this.
- getNoneCompressor() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getNoneUncompressor() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getNonSharedArchivedStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getNoSuchSnapshot() - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
Returns a singleton that corresponds to no snapshot information.
- getNoVersionMap() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Map of families to their most recent qualifiers and values.
- getNumberOfCachedRegionLocations(TableName) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Return the number of cached region for a table.
- getNumberOfChildren(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Get the number of children of the specified node.
- getNumberOfListeners() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- getNumberOfOnlineRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getNumberOfRecoveredRegions() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- getNumberOfRegions() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getNumberOfRunningProcess() - 类 中的方法org.apache.hadoop.hbase.util.JVM
-
Workaround to get the current number of process running.
- getNumberOfTasksInProgress() - 接口 中的方法org.apache.hadoop.hbase.client.RequestController
-
- getNumberOfThreads(JobContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
The number of threads in the thread pool that will run the map function.
- getNumBytesCompacted() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumBytesCompacted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumChunks() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- getNumCompactionsCompleted() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumCompactionsCompleted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumCompactionsFailed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Returns the total number of compactions that have been reported as failed on this region.
- getNumCompactionsFailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumCompactionsQueued() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumCompactionsQueued() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getNumDeadRegionServers() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the number of dead region servers
- getNumDeadRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNumExceptions() - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getNumFilesCompacted() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumFilesCompacted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumFlushesQueued() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumFlushesQueued() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getNumGeneralCallsDropped() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
If CoDel-based RPC executors are used, retrieves the number of Calls that were dropped
from general queue because RPC executor is under high load; returns 0 otherwise.
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getNumHFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getNumHFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getNumLevels() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getNumLifoModeSwitches() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
If CoDel-based RPC executors are used, retrieves the number of Calls that were
picked from the tail of the queue (indicating adaptive LIFO mode, when
in the period of overloade we serve last requests first); returns 0 otherwise.
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
iff the given WALFactory is using the DefaultWALProvider for meta and/or non-meta, count the
number of files (rolled and active). if either of them aren't, count 0 for that provider.
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getNumLogFiles() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Get number of the log files this provider is managing
- getNumMutationsWithoutWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getNumMutationsWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Number of mutations received with WAL explicitly turned off.
- getNumMutationsWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getNumObservers() - 类 中的方法org.apache.hadoop.hbase.conf.ConfigurationManager
-
- getNumOfCells() - 类 中的方法org.apache.hadoop.hbase.regionserver.VersionedSegmentsList
-
- getNumOfDeletes() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getNumOfPuts() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getNumOfSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getNumOfSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- getNumOfSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.VersionedSegmentsList
-
- getNumOnlineRegions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
The number of online regions
- getNumOpenConnections() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
The number of open RPC conections
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
The number of open RPC conections
- getNumPositivesForTesting(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- getNumQueriesForTesting(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- getNumReferenceFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getNumReferenceFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getNumReferenceFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getNumReferenceFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumReferenceFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getNumRegions() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getNumRegionServers() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the number of live region servers
- getNumRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNumRolledLogFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getNumRolledLogFiles(WAL) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
returns the number of rolled WAL files.
- getNumRootEntries() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getNumStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of store files hosted on this region server.
- getNumStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the number of store files hosted on this region server.
- getNumStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of stores hosted on this region server.
- getNumStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the number of stores hosted on this region server.
- getNumStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- getNumUniqueKeys() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- getNumUniqueKeys() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- getNumWALFiles() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getNumWALFiles() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the number of master WAL files.
- getNumWALFiles() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNumWALFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of WAL files of this region server.
- getNumWALSlowAppend() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of WAL files with slow appends for this region server.
- getObjectFromMessage(byte[]) - 接口 中的方法org.apache.hadoop.hbase.rest.ProtobufMessageHandler
-
Initialize the model from a protobuf representation.
- getObservedSnapshotSizes(Connection) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
Fetches any persisted HBase snapshot sizes stored in the quota table.
- getOffHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- getOffHeapSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- getOffHeapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getOffPeakHours() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getOffset() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getOffset() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
The offset, the index into the underlying byte[] at which this range
begins.
- getOffset() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- getOldestHfileTs(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOldestHfileTs(boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This can be used to determine the last time all files of this region were major compacted.
- getOldestSeqIdOfStore(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOnDiskSizeWithHeader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getOneRandomRack(Set<String>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- getOneRandomServer(String, Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
Gets a random server from the specified rack and skips anything specified.
- getOnHeapCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- getOnHeapCacheSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- getOnHeapCacheStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- getOnheapGlobalMemStoreSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Returns the onheap global memstore limit based on the config
'hbase.regionserver.global.memstore.size'.
- getOnlineRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getOnlineRegions(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getOnlineRegions(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getOnlineRegions() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getOnlineRegions() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
- getOnlineRegions(AdminProtos.AdminService.BlockingInterface) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to get the all the online regions on a region
server using admin protocol.
- getOnlineRegions(RpcController, AdminProtos.AdminService.BlockingInterface) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to get the all the online regions on a region
server using admin protocol.
- getOnlineRegionsLocalContext() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
For tests, web ui and metrics.
- getOnlineServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getOnlineServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getOnlineServersListWithPredicator(List<ServerName>, Predicate<ServerMetrics>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getOnlineTables() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Gets the online tables in this RS.
- getOpenFileDescriptorCount() - 类 中的方法org.apache.hadoop.hbase.util.JVM
-
Get the number of opened filed descriptor for the runtime jvm.
- getOpenSeqNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOpenSeqNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getOperation(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationsFromCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationStatus(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationStatusCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.OperationStatus
-
- getOperationTimeout() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getOperationTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Get timeout of each operation in Table instance.
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getOperationTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- getOperationTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Get timeout of each operation in Table instance.
- getOperationTimeout() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- getOperationTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getOperationType() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.NamespaceFuture
-
- getOperationType() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- getOperator() - 类 中的方法org.apache.hadoop.hbase.filter.BitComparator
-
- getOperator() - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- getOperator() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
Get the operator.
- getOperator() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- getOptionAsDouble(CommandLine, String, double) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- getOptionAsInt(CommandLine, String, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- getOptionAsLong(CommandLine, String, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- getOrCreateTableHistogram(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableLatenciesImpl
-
- getOrder() - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Retrieve the sort
Order imposed by this data type, or null when
natural ordering is not preserved.
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.OrderedBytesBase
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.PBType
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.Union3
-
- getOrder() - 类 中的方法org.apache.hadoop.hbase.types.Union4
-
- getOrderOfSize() - 枚举 中的方法org.apache.hadoop.hbase.Size.Unit
-
- getOriginalIndex() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- getOriginatingClusterId() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getOriginatingClusterId() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getOriginPath() - 类 中的方法org.apache.hadoop.hbase.io.HFileLink
-
- getOrigLogSeqNum() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Return a positive long if current WALKeyImpl is created from a replay edit; a replay edit is an
edit that came in when replaying WALs of a crashed server.
- getOrigLogSeqNum() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
Return a positive long if current WALKeyImpl is created from a replay edit; a replay edit is an
edit that came in when replaying WALs of a crashed server.
- getOutput() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Returns the output committer.
- getOutputCounts() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- getOutputStream() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
Get a SASL wrapped OutputStream.
- getOutputStreamForCellEncoder() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- getOutputStreamForCellEncoder() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- getOutputStreamForCellEncoder() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- getOverallAverageLatency() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getOverlapGroups(TableName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getOwner() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getOwnerString() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
已过时。
- getOwnerString() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
已过时。
- getOwnerString() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getPageSize() - 类 中的方法org.apache.hadoop.hbase.filter.PageFilter
-
- getParam() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getParameter(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Unquote the name and quote the value.
- getParameterMap() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParameterNames() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Return the set of parameter names, quoting each name.
- getParameterValues(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParent(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Returns the full path of the immediate parent of the specified node.
- getParentRegionNames() - 类 中的方法org.apache.hadoop.hbase.MetaTableAccessor.ReplicationBarrierResult
-
- getParentsBytes(List<RegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getParentToChildrenPairMap() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the map of parent-children_pair.
- getPartition(ImmutableBytesWritable, V2, int) - 类 中的方法org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- getPartition(ImmutableBytesWritable, VALUE, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Gets the partition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartition(Import.CellWritableComparable, Cell, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparablePartitioner
-
- getPartition(Import.KeyValueWritableComparable, KeyValue, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparablePartitioner
-
已过时。
- getPartition(ImmutableBytesWritable, VALUE, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- getPartitionId() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- getPassword(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Get the password from the Configuration instance using the
getPassword method if it exists.
- getPath() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getPath() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Gets the mob file path.
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getPath() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- getPath(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Return the 'path' component of a Path.
- getPath() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp
-
- getPauseTime(long, int) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
Calculate pause time.
- getPeer(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
Returns the ReplicationPeerImpl for the specified cached peer.
- getPeerBandwidth() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get the per node bandwidth upper limit for this peer
- getPeerBandwidth() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
- getPeerCache() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- getPeerClusterConfiguration(Configuration, ReplicationPeerDescription) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Returns the configuration needed to talk to the remote slave cluster.
- getPeerClusterConfiguration(ReplicationPeerConfig, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationUtils
-
- getPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- getPeerConfig() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getPeerConfig() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get the peer config object
- getPeerConfig() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerDescription
-
- getPeerConfig() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Get the peer config object
- getPeerConfig(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerStorage
-
Get the peer config of a replication peer.
- getPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- getPeerData() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getPeerId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getPeerID() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getPeerId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerDescription
-
- getPeerId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueInfo
-
- getPeerNode(String) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- getPeerProcedureHandler() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationSourceService
-
Returns a Handler to handle peer procedures.
- getPeersCount() - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- getPeerState(String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- getPeerState() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Returns the state of the peer by reading local cache.
- getPeerState() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
- getPeerStateNode(String) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- getPeerStorage() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- getPeerTableCFs(String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- getPeerUUID() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- getPeerUUID() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Returns a UUID of the provided peer id.
- getPercentFileLocal() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the percent of HFiles' that are local.
- getPercentFileLocalSecondaryRegions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the percent of HFiles' that are local for secondary region replicas.
- getPeriod() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- getPeriod() - 类 中的方法org.apache.hadoop.hbase.util.Sleeper
-
- getPipeline() - 接口 中的方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutput
-
Return current pipeline.
- getPipeline() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutput
-
- getPipeline() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.WrapperAsyncFSOutput
-
- getPipelineSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getPolicies() - 类 中的方法org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- getPolicy() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
Returns the violation policy, which may be null.
- getPolicyEnforcement(Region) - 类 中的方法org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- getPolicyEnforcement(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DisableTableViolationPolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoInsertsViolationPolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesCompactionsViolationPolicyEnforcement
-
- getPolicyName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.NoWritesViolationPolicyEnforcement
-
- getPolicyName() - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
- getPool() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getPool() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getPool() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getPort() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- getPort() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getPort() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- getPort() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
已过时。
- getPort() - 异常错误 中的方法org.apache.hadoop.hbase.ipc.RemoteWithExtrasException
-
- getPort() - 类 中的方法org.apache.hadoop.hbase.net.Address
-
- getPort() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getPosition() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getPosition() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getPosition() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
The current position marker.
- getPosition() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- getPreadScanner(boolean, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
Get a scanner which uses pread.
- getPreallocatedEventCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- getPrettyHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getPrevCell() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- getPrevCell() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Returns the previous cell written by this writer
- getPrimaryCallTimeoutMicroSecond() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getPrimaryEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrimaryHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrimaryHRIForDeployedReplica() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getPrimaryMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrimaryOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getPrimaryToRegionInfoMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- getPrincipalWithoutRealm(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityUtil
-
Get the user name from a principal
- getPriority() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptor
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getPriority() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 接口 中的方法org.apache.hadoop.hbase.ipc.PriorityFunction
-
Returns the 'priority type' of the specified request.
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Returns a 'priority' based on the request type.
- getPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getPriorityQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the priority queue for metrics.
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getProcedureCoordinatorRpcs(String, String) - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Method to retrieve ProcedureCoordinatorRpcs
- getProcedureCoordinatorRpcs(String, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getProcedureMemberRpcs(String) - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Method to retrieve ProcedureMemberRpcs
- getProcedureMemberRpcs(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getProcedureResult(MasterProtos.GetProcedureResultRequest) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- getProcedureResult(RpcController, MasterProtos.GetProcedureResultRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getProcedureResult(RpcController, MasterProtos.GetProcedureResultRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getProcedures() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get procedures.
- getProcedures() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
List procedures
- getProcedures() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getProcedures(RpcController, MasterProtos.GetProceduresRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getProcedures() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getProcedures(RpcController, MasterProtos.GetProceduresRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getProcedures() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Get procedures
- getProcessName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getProcessName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getProcessPID() - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getPromotedValueFromProto(R) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method gets the promoted type from the proto message
- getProperties() - 接口 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptor
-
- getProtobuf(UriInfo, String) - 类 中的方法org.apache.hadoop.hbase.rest.TableScanResource
-
- getProtocol() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.UnknownProtocolException
-
- getProtoForCellType(T) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method gets the PB message corresponding to the cell type
- getProtoForPromotedType(S) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method gets the PB message corresponding to the promoted type
- getProtoViolationPolicy(SpaceViolationPolicy) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getProvider() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Return the provider for this Cipher
- getProviderClass(String, String) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getQop(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SaslUtil
-
- getQualifiedMobRootDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the qualified root dir of the mob files.
- getQualifiedPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getQualifiedPath() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- getQualifier(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getQualifierArray() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
Contiguous raw bytes that may start at any index in the containing array.
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getQualifierAsString() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- getQualifierBufferShallowCopy(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getQualifierByte(Cell, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- getQualifierByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getQualifierByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getQualifierByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getQualifierByteBuffer() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getQualifierLength() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getQualifierOffset() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getQualifierPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getQualifierPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getQualifierPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getQualifierPosition() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getQualifierString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getQuarantined() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getQuarantinedMobFiles() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getQueueId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueInfo
-
- getQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Returns the length of the pending queue
- getQueues() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Returns the list of request queues
- getQueueSize() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferPool
-
- getQuorum() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Get the quorum address of this instance.
- getQuorumString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKConfig.ZKClusterKey
-
- getQuota(QuotaFilter) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
List the quotas based on the filter.
- getQuota(QuotaFilter) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
List the quotas based on the filter.
- getQuota(QuotaFilter) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getQuota(UserGroupInformation, TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
Returns the quota for an operation.
- getQuotaObserverChore() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getQuotaRetriever(QuotaFilter) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getQuotaRetriever(QuotaFilter) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getQuotaSettings() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettings
-
Computes a list of QuotaSettings that present the complete quota state of the combination of
this user, table, and/or namespace.
- getQuotaSettings() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- getQuotaSnapshot() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- getQuotaSnapshot() - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
- getQuotaStates(RpcController, QuotaProtos.GetQuotaStatesRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getQuotaStates(RpcController, QuotaProtos.GetQuotaStatesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getQuotaStatus() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
Returns the status of the quota.
- getQuotaType() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettings
-
- getQuotaType() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- getRack(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RackManager
-
Get the name of the rack containing a server, according to the DNS to
switch mapping.
- getRack(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.RackManager
-
- getRackManager() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getRandomKey() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AES
-
- getRandomKey() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAES
-
- getRandomKey() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Cipher
-
Create a random symmetric key
- getRaw(String) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- getReadAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- getReadAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
- getReadAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- getReadAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- getReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getReader(FileStatus, boolean, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
Create a new
WAL.Reader for reading logs to split.
- getReader(Path, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
Create a new
WAL.Reader for reading logs to split.
- getReadLockCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ChangedReadersObserver
-
- getReadPoint(IsolationLevel) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- getReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getReadQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the read queue for metrics when use RWQueueRpcExecutor.
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getReadRequestCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getReadRequestCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getReadRequestCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the total number of read requests that have been issued against this region
- getReadRequestCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of read requests to regions hosted on this region server.
- getReadRequestsCount(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the number of read requests that have been issued against this table
- getReadRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getReadRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Get timeout of each rpc read request in this Table instance.
- getReadRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getReadRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getReadRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- getReadRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Get timeout of each rpc read request in this Table instance.
- getReadRpcTimeout() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getReadRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getReadRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- getReadType() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getReadyToWriteCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getReceiveTime() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Builds a TableRecordReader.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat
-
Creates a new record writer.
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Creates a new record writer.
- getRecoverableZooKeeper() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Get the connection to ZooKeeper.
- getRefCellTags() - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
- getRefCount(BlockCacheKey) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getRefCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- getReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getReferenceCount() - 类 中的方法org.apache.hadoop.hbase.mob.CachedMobFile
-
Gets the reference of the current mob file.
- getReferencedFileStatus(FileSystem) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Get the FileStatus of the file referenced by this StoreFileInfo
- getReferencedHFileName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the HFile name of the referenced link
- getReferencedRegionName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the Region name of the referenced link
- getReferencedTableName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the Table name of the referenced link
- getReferenceFilePaths(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getReferenceKey(Reference<V>) - 类 中的方法org.apache.hadoop.hbase.util.ObjectPool
-
Get key of the given reference
- getReferenceKey(Reference<V>) - 类 中的方法org.apache.hadoop.hbase.util.SoftObjectPool
-
- getReferenceKey(Reference<V>) - 类 中的方法org.apache.hadoop.hbase.util.WeakObjectPool
-
- getReferenceType() - 类 中的方法org.apache.hadoop.hbase.util.IdReadWriteLock
-
- getReferredToFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getRegion() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getRegion() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getRegion() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getRegion() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- getRegion(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getRegion(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Protected Utility method for safely obtaining an HRegion handle.
- getRegion(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
- getRegion() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- getRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Find the HRegion based on a region specifier
- getRegionActionBuilderWithRegion(ClientProtos.RegionAction.Builder, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.RequestConverter
-
- getRegionArchiveDir(Path, TableName, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the archive directory for a given region under the specified table
- getRegionArchiveDir(Path, TableName, String) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the archive directory for a given region under the specified table
- getRegionAssignmentSnapshot() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getRegionBlockLocations(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionByEncodedName(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionByEncodedName(byte[], String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionCount() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getRegionCount(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Count regions in hbase:meta for passed table.
- getRegionCount(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Count regions in hbase:meta for passed table.
- getRegionCountOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Get region count for table
- getRegionCountOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- getRegionDegreeLocalityMappingFromFS(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
This function is to scan the root path of the file system to get the
degree of locality for each region on each of the servers having at least
one block of that region.
- getRegionDegreeLocalityMappingFromFS(Configuration, String, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
This function is to scan the root path of the file system to get the
degree of locality for each region on each of the servers having at least
one block of that region.
- getRegionDir(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getRegionDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionDir(Path, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionDir(Path, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRegionDirRecoveredEditsDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
- getRegionDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Given a particular table dir, return all the regiondirs inside it, excluding files such as
.tableinfo
- getRegionEncodedName(HBaseProtos.RegionSpecifier) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Find the HRegion encoded name based on a region specifier
- getRegionEventDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- getRegionFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getRegionHashCode() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
- getRegionHashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getRegionId() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getRegionId() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- getRegionInfo(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns RegionInfo object from the column
HConstants.CATALOG_FAMILY:HConstants.REGIONINFO_QUALIFIER of the catalog
table Result.
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getRegionInfo(RpcController, AdminProtos.AdminService.BlockingInterface, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to retrieve region info given a region name
using admin protocol.
- getRegionInfoForDefaultReplica(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
Returns the RegionInfo for the default replicaId (0).
- getRegionInfoForFS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionInfoForFs(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns the regionInfo object to use for interacting with the file system.
- getRegionInfoForReplica(RegionInfo, int) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
Returns the RegionInfo for the given replicaId.
- getRegionInfos(AdminProtos.GetOnlineRegionResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get the list of region info from a GetOnlineRegionResponse
- getRegionInfos(AdminProtos.GetOnlineRegionResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Get the list of region info from a GetOnlineRegionResponse
- getRegionInfosFromManifest(SnapshotManifest) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getRegionLoad(RpcController, AdminProtos.GetRegionLoadRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getRegionLoadInfo(AdminProtos.GetRegionLoadResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- getRegionLocation(AsyncTable<?>, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
Returns the HRegionLocation from meta for the given region
- getRegionLocation(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableRegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableRegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation(TableName, byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Find region location hosting passed row
- getRegionLocation(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Finds the region on which the given row is being served.
- getRegionLocation() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getRegionLocation() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region location.
- getRegionLocation(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the HRegionLocation from meta for the given region
- getRegionLocation(Connection, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the HRegionLocation from meta for the given region
- getRegionLocation(int) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
- getRegionLocation() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Returns the first not-null region location in the list
- getRegionLocationByRegionName(byte[]) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Returns the region location from the list for matching regionName, which can
be regionName or encodedRegionName
- getRegionLocations(ClusterConnection, TableName, byte[], boolean, int) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- getRegionLocations(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns an HRegionLocationList extracted from the result.
- getRegionLocations() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
- getRegionLocationWithEncodedName(AsyncTable<?>, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
Returns the HRegionLocation from meta for the given encoded region name
- getRegionLocator(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Retrieve a AsyncRegionLocator implementation to inspect region information on a table.
- getRegionLocator(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
Retrieve a RegionLocator implementation to inspect region information on a table.
- getRegionLocator() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getRegionLocator() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- getRegionLocator(TableName) - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getRegionLocator(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Retrieve a regionLocator for the table.
- getRegionManifests() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get all the Region Manifest from the snapshot
- getRegionManifestsMap() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get all the Region Manifest from the snapshot.
- getRegionMetrics(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getRegionMetrics(ServerName, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get
RegionMetrics of all regions hosted on a regionserver for a table.
- getRegionMetrics(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get a list of
RegionMetrics of all regions hosted on a region seerver.
- getRegionMetrics(ServerName, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get a list of
RegionMetrics of all regions hosted on a region seerver for a table.
- getRegionMetrics(ServerName, TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getRegionMetrics() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getRegionMetrics() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the encoded region name for the region this plan is for.
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the name of the region.
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getRegionNameAsString() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getRegionNameAsString() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getRegionNameAsString() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getRegionNameAsStringForDisplay(RegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionInfoDisplay
-
Get the region name for display.
- getRegionNameAsStringForDisplay(HRegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getRegionNameForDisplay(RegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionInfoDisplay
-
Get the region name for display.
- getRegionNameForDisplay(HRegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getRegionNameToRegionInfoMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the regioninfo for a region
- getRegionNormalizer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionNormalizer() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getRegionNormalizerTracker() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessor
-
- getRegionReferenceFileCount(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRegionReplicaStoreFileRefreshMultiplier(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- getRegionReplication() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getRegionReplication() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Returns the configured replicas per region
- getRegionReplication() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Returns the configured replicas per region
- getRegionResult(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Gets the result in hbase:meta for the specified region.
- getRegions(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get all the online regions on a region server.
- getRegions(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Get the regions of a given table.
- getRegions(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get all the online regions on a region server.
- getRegions(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Get the regions of a given table.
- getRegions(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getRegions(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getRegions() - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
- getRegions(TableName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Gets the online regions of the specified table.
- getRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegions(TableName) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
Get all online regions of a table in this RS.
- getRegions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
Get all online regions in this RS.
- getRegionsCount() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getRegionServer(int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getRegionServer() - 类 中的方法org.apache.hadoop.hbase.util.JVMClusterUtil.RegionServerThread
-
- getRegionServerAccounting() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerAccounting() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRegionServerCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerCoprocessors() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerCoprocessors() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getRegionServerFatalLogBuffer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerInfoPort(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessor
-
- getRegionServerQuotaSnapshot(ClusterConnection, int, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
- getRegionServerQuotaSnapshot(ClusterConnection, RpcControllerFactory, int, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.client.QuotaStatusCalls
-
Executes an RPC to the RegionServer identified by the ServerName to fetch its view
on space quotas.
- getRegionServerQuotaSnapshots(Connection, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getRegionServerRpcQuotaManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerRpcQuotaManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRegionServers() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getRegionServers() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getRegionServers() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the live region servers
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get a list of all the addresses of all the region servers
for this peer cluster
- getRegionServerServices() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.HasRegionServerServices
-
已过时。
- getRegionServerServices() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- getRegionServerSpaceQuotaManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerSpaceQuotaManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRegionServerToRegionMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get regionserver to region map
- getRegionServerVersion(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerVersion(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getRegionServerWrapper() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- getRegionServicesForStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionsFromMergeQualifier(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Get regions from the merge qualifier of the specified merged region
- getRegionsFromMeta() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getRegionsInTransitionInRS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionsInTransitionInRS() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Get the regions that are currently being opened or closed in the RS
- getRegionSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.RegionSizeCalculator
-
Returns size of given region in bytes.
- getRegionSizeMap() - 类 中的方法org.apache.hadoop.hbase.mapreduce.RegionSizeCalculator
-
- getRegionsLoad() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getRegionsMovement(FavoredNodesPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Return how many regions will move per table since their primary RS will
change
- getRegionsOfFavoredNode(ServerName) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getRegionSplitLimit() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getRegionSplitPolicyClassName() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
This gets the class associated with the region split policy which
determines when a region split should occur.
- getRegionSplitPolicyClassName() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
This gets the class associated with the region split policy which
determines when a region split should occur.
- getRegionSplitPolicyClassName() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
This gets the class associated with the region split policy which
determines when a region split should occur.
- getRegionsResource() - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getRegionStatesInTransition() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getRegionStatesInTransition() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- getRegionsToAdd() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of new regions added during the on-disk restore.
- getRegionsToRemove() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of regions removed during the on-disk restore.
- getRegionsToRestore() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of 'restored regions' during the on-disk restore.
- getRegionToRegionServerMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get region to region server map
- getRegionWrapper() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- getRegistredMBeans(ObjectName, MBeanServer) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getRemaining() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getRemaining() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
The number of bytes remaining between position and the end of the range.
- getRemoteAddress() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getRemoteException(ServiceException) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Return the IOException thrown by the remote server wrapped in
ServiceException as cause.
- getRemoteIp() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the remote side ip address when invoked inside an RPC
Returns null incase of an error.
- getRemotePort() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getReplicableHFiles(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get a list of all hfile references in the given peer.
- getReplicaCallTimeoutMicroSecondScan() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Returns region replica id where Query will fetch data from.
- getReplicaId() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Returns the region replica id
- getReplicaId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the replica id of this region.
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
Get the replica id of this region.
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getReplicaLoad(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- getReplicationBarrier(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getReplicationBarrierResult(Connection, TableName, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getReplicationBarriers(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getReplicationEndpointImpl() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getReplicationLag() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getReplicationLoad(ServerName[]) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getReplicationLoadSink() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
Call directly from client such as hbase shell
- getReplicationLoadSink() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
Call directly from client such as hbase shell
- getReplicationLoadSourceList() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
Call directly from client such as hbase shell
- getReplicationLoadSourceList() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
Call directly from client such as hbase shell
- getReplicationManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationSourceService
-
Returns the replication manager
- getReplicationPeer() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getReplicationPeerConfig(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Returns the configured ReplicationPeerConfig for the specified peer.
- getReplicationPeerConfig(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Returns the configured ReplicationPeerConfig for the specified peer
- getReplicationPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getReplicationPeerConfig(RpcController, ReplicationProtos.GetReplicationPeerConfigRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getReplicationPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getReplicationPeerConfig(RpcController, ReplicationProtos.GetReplicationPeerConfigRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getReplicationPeerConfig(String) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Returns the configured ReplicationPeerConfig for the specified peer
- getReplicationPeerId() - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Return the peer id used for replicating to secondary region replicas
- getReplicationPeerManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getReplicationPeerManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Returns the ReplicationPeerManager.
- getReplicationPeers(ZKWatcher, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationFactory
-
- getReplicationPeerStorage(ZKWatcher, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationStorageFactory
-
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getReplicationQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the replication queue for metrics.
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getReplicationQueueStorage(ZKWatcher, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationStorageFactory
-
- getReplicationScope() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReplicationScopes() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getReplicationSourceService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getReplicationTracker(ZKWatcher, Abortable, Stoppable) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationFactory
-
- getReplicationZnodesDump(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Returns a string with replication znodes and position of the replication log
- getReportTime() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getReportTimestamp() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getReportTimestamp() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getRequest() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- getRequest(Service, Descriptors.MethodDescriptor, ByteString) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getRequestCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRequestCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRequestCount() - 接口 中的方法org.apache.hadoop.hbase.ClusterMetrics
-
- getRequestCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRequestCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRequestCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getRequestCount() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getRequestCount() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getRequestCountPerSecond() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getRequestCountPerSecond() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getRequestData() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method should return any additional data that is needed on the
server side to construct the ColumnInterpreter.
- getRequestData() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
This method should return any additional data that is needed on the
server side to construct the RowProcessor.
- getRequestLog(String) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpRequestLog
-
- getRequestsCount() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getRequestsCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getRequestSizeBytes() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- getRequestsPerSecond() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of requests per second.
- getRequestsPerSecond() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getRequestURL() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the url so that users specifying the HOST HTTP header
can't inject attacks.
- getRequestUser() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Returns the user credentials associated with the current RPC request or not present if no
credentials were provided.
- getRequestUser() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the user credentials associated with the current RPC request or not present if no
credentials were provided.
- getRequestUserName() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getRequestUserName() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the username for any user associated with the current RPC
request or not present if no user is set.
- getRescanNode(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getResource(String) - 类 中的方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
- getResponse(ClientProtos.CoprocessorServiceResponse, Message) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getResponse(Message, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
- getResponseBlockSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getResponseBody(HttpResponse) - 类 中的静态方法org.apache.hadoop.hbase.rest.client.Client
-
Returns the response body of the HTTPResponse, if any, as an array of bytes.
- getResponseCellSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
The size of response cells that have been accumulated so far.
- getResponseExceptionSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getResponseSizeBytes() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- getRestoreDir() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getRestVersion() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- getResult() - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse.Entry
-
- getResult() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.ObserverOperationWithResult
-
- getResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResult
-
- getResult() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
- getResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
Obtain the processing result.
- getResult(ClientProtos.MutateRequest, ClientProtos.MutateResponse, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
- getResults() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncRequestFuture
-
- getResults() - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- getResults(ClientProtos.MultiRequest, ClientProtos.MultiResponse, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Get the results from a protocol buffer MultiResponse
- getResults(ClientProtos.MultiRequest, Map<Integer, Integer>, ClientProtos.MultiResponse, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Get the results from a protocol buffer MultiResponse
- getResults(CellScanner, ClientProtos.ScanResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Create Results from the cells using the cells meta data.
- getRetainDays() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- getRetCode() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getRetries() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getRetriesNumber() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getRevision() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
Get the subversion revision number for the root directory
- getRitDuration() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- getRootDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getRootDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRootDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getRootDirFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getRootIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRootIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRootIndexHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getRootIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRootIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRootIndexMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.Cursor
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's row
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Method for retrieving the delete's row
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Method for retrieving the row key that corresponds to
the row from which this Result was created.
- getRow(int) - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- getRow() - 接口 中的方法org.apache.hadoop.hbase.client.Row
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getRowAccess() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getRowArray() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
Contiguous raw bytes that may start at any index in the containing array.
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
Implement Cell interface
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getRowAsInt(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Converts the rowkey bytes of the given cell into an int value
- getRowByte(Cell, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
已过时。
- getRowByte(Cell, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
misc
- getRowByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getRowByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getRowByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getRowByteBuffer() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getRowCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export.Response
-
- getRowForRegion(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- getRowKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getRowLength() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.SizeCachedKeyValue
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getRowLock(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Get an exclusive ( write lock ) lock on a given row.
- getRowLock(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRowLock(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Get a row lock for the specified row.
- getRowLockInternal(byte[], boolean, Region.RowLock) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRowNum(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the row count for the given column family and column qualifier, in
the given row range as defined in the Scan object.
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getRowOffset() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getRowOffsetPerColumnFamily() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's offset per row per column
family (#kvs to be skipped)
- getRowOffsetPerColumnFamily() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Method for retrieving the scan's offset per row per column
family (#kvs to be skipped)
- getRowPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getRowPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getRowPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getRowPosition() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getRowRanges() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
- getRowResource(String, String, String, String) - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getRowResourceWithSuffixGlobbing(String, String, String, String) - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getRowsToLock() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
Rows to lock while operation.
- getRowString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getRpcCall() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- getRpcController() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getRpcControllerCellScanner() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
Get the RpcController CellScanner.
- getRpcControllerFactory() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getRpcGetRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of rpc get requests to this region server.
- getRpcMultiRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of rpc multi requests to this region server.
- getRpcMutateRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of rpc mutate requests to this region server.
- getRpcRetryingCallerFactory() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getRpcScanRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of rpc scan requests to this region server.
- getRpcServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRpcServer() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Returns a reference to the region server's RPC server
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Get timeout of each rpc request in this Table instance.
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- getRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Get timeout of each rpc request in this Table instance.
- getRpcTimeout() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- getRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getRsAdmin(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getRsCoprocessors() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getRSGroup(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Gets RSGroupInfo for the given group name.
- getRSGroupInfo(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Gets RSGroupInfo for given group name.
- getRSGroupInfo(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- getRSGroupInfo(Connection, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.RSGroupTableAccessor
-
- getRSGroupInfoOfTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Gets RSGroupInfo for the given table's group.
- getRSGroupInfoOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- getRSGroupOfServer(Address) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Retrieve the RSGroupInfo a server is affiliated to
- getRSGroupOfServer(Address) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- getRSGroupOfServer(Address) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Gets the group info of server.
- getRSGroupOfTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Get the group membership of a table
- getRSRpcServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getSaslQOP() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
- getSaslQOP() - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClient
-
- getSaslQop() - 枚举 中的方法org.apache.hadoop.hbase.security.SaslUtil.QualityOfProtection
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Gets the scan defining the actual details like columns etc.
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns a Scan object from the stored string representation.
- getScanDetailsWithId(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getScanForTableName(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
已过时。
- getScanInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getScanMetrics() - 类 中的方法org.apache.hadoop.hbase.client.AbstractClientScanner
-
Used internally accumulating metrics on scan.
- getScanMetrics() - 接口 中的方法org.apache.hadoop.hbase.client.ResultScanner
-
- getScanMetrics() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getScanMetrics(ClientProtos.ScanResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
- getScanner(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Gets a scanner on the current table for the given family.
- getScanner(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Gets a scanner on the current table for the given family and qualifier.
- getScanner(Scan) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Returns a scanner on the current table as specified by the
Scan object.
- getScanner(Scan) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
The underlying
HTable must not be closed.
- getScanner(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
The underlying
HTable must not be closed.
- getScanner(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
The underlying
HTable must not be closed.
- getScanner(Scan) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Returns a scanner on the current table as specified by the
Scan
object.
- getScanner(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Gets a scanner on the current table for the given family.
- getScanner(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Gets a scanner on the current table for the given family and qualifier.
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getScanner(boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getScanner(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getScanner(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Create a Scanner on this file.
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Create a Scanner on this file.
- getScanner() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getScanner() - 类 中的方法org.apache.hadoop.hbase.mob.MobFile
-
Internal use only.
- getScanner(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
Creates the scanner for the given read point
- getScanner(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getScanner(Scan, List<KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getScanner(Scan, NavigableSet<byte[]>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Return a scanner for both the memstore and the HStore files.
- getScanner(Scan) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return an iterator that scans over the HRegion, returning the indicated
columns and rows specified by the
Scan.
- getScanner(Scan, List<KeyValueScanner>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return an iterator that scans over the HRegion, returning the indicated columns and rows
specified by the
Scan.
- getScanner(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getScanner(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
Creates the scanner for the given read point
- getScanner(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getScanner(Scan) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getScanner(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getScanner(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getScannerCaching() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getScannerCallableForReplica(int) - 类 中的方法org.apache.hadoop.hbase.client.ReversedScannerCallable
-
- getScannerCallableForReplica(int) - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- getScannerInstanceResource(String) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResource
-
- getScannerMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getScannerOrder() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Get the order of this KeyValueScanner.
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getScannerResource() - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getScanners(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getScanners(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getScanners(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getScanners(boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Get all scanners with no filtering based on TTL (that happens further down the line).
- getScanners(boolean, boolean, boolean, ScanQueryMatcher, byte[], boolean, byte[], boolean, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Get all scanners with no filtering based on TTL (that happens further down the line).
- getScanners(List<HStoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Create scanners on the given files and if needed on the memstore with no filtering based on TTL
(that happens further down the line).
- getScanners(List<HStoreFile>, boolean, boolean, boolean, ScanQueryMatcher, byte[], boolean, byte[], boolean, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Create scanners on the given files and if needed on the memstore with no filtering based on TTL
(that happens further down the line).
- getScanners(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- getScanners() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getScanners(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getScannersCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getScannersForCompaction(Collection<HStoreFile>, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Get scanners for compaction.
- getScannersForStoreFiles(Collection<HStoreFile>, boolean, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given set of store files.
- getScannersForStoreFiles(Collection<HStoreFile>, boolean, boolean, boolean, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given set of store files.
- getScannersForStoreFiles(Collection<HStoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given set of store files, And set the
ScanQueryMatcher for each store file scanner for further optimization
- getScannerTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getScanQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the scan queue for metrics when use RWQueueRpcExecutor.
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getScanResource(String, int, String, String, List<String>, int, int, long, long, boolean, boolean, String) - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getScans() - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Allows subclasses to get the list of
Scan objects.
- getScanTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Get the timeout of a single operation in a scan.
- getScheduler() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getScheduler() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getSchemaAlterStatus(RpcController, MasterProtos.GetSchemaAlterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getSchemaAlterStatus(RpcController, MasterProtos.GetSchemaAlterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get the number of regions of the table that have been updated by the alter.
- getSchemaResource() - 类 中的方法org.apache.hadoop.hbase.rest.TableResource
-
- getScheme(HttpConfig.Policy) - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- getSchemePrefix() - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- getScope() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getScope() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getScope() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getScopeWALEntryFilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a WALEntryFilter for checking the scope.
- getSecond() - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- getSecond() - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
Return the second element stored in the pair.
- getSecond() - 类 中的方法org.apache.hadoop.hbase.util.PairOfSameType
-
Return the second element stored in the pair.
- getSecond() - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- getSecondaryAndTertiary(RegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- getSecondaryToRegionInfoMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- getSecretKeyForSubject(String, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Resolves a key for the given subject
- getSecretManager() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getSecureBulkLoadManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getSecureBulkLoadManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getSecurityCapabilities() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Return the set of supported security capabilities.
- getSecurityCapabilities() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- getSecurityCapabilities() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getSecurityCapabilities(RpcController, MasterProtos.SecurityCapabilitiesRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getSecurityCapabilities(RpcController, MasterProtos.SecurityCapabilitiesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Returns the security capabilities in effect on the cluster
- getSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getSelectionTime() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
Gets the selection time.
- getSeqNum() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getSeqNumColumn(int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the column qualifier for seqNum column for replicaId
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getSequenceId() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getSequenceId() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
A region-specific unique monotonically increasing sequence ID given to each Cell.
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
used to achieve atomic operations in the memstore.
- getSequenceId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SequenceId
-
- getSequenceID() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
SequenceId is only available post WAL-assign.
- getSequenceOnRingBuffer() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getSerializedLength() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Returns the length of the ByteBuffer required to serialized the object.
- getSerializedLength() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getSerializedSize(boolean) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
- getSerializedSize() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getSerializedSize(Cell, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.NoTagsByteBufferKeyValue
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.NoTagsKeyValue
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.SizeCachedNoTagsKeyValue
-
- getSerializedSize(boolean) - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getSerializer(Class<Cell>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization
-
- getSerializer(Class<KeyValue>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
已过时。
- getSerializer(Class<Mutation>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- getSerializer(Class<Result>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- getServerColumn(int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the column qualifier for server column for replicaId
- getServerConnectors() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- getServerCrashMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterSource
-
- getServerCrashMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- getServerCrashProcMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Get some information of the region server.
- getServerInfo(RpcController, AdminProtos.AdminService.BlockingInterface) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to get the info of a region server using admin protocol.
- getServerManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getServerManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
- getServerName() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the server name so that users specifying the HOST HTTP header
can't inject attacks.
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get ServerName
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- getServerName(Result, int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get ServerName
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getServerName(String, long) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- getServerNameFromWALDirectoryName(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Pulls a ServerName out of a Path generated according to our layout rules.
- getServerNameFromWALDirectoryName(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
This function returns region server name from a log file name which is in one of the following
formats:
hdfs://<name node>/hbase/.logs/<server name>-splitting/...
- getServerNameLessStartCode(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- getServerPrincipal() - 类 中的方法org.apache.hadoop.hbase.security.SecurityInfo
-
- getServers() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getServers() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Get list of servers.
- getServersSize() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getServerStartcodeFromServerName(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- getServerStats(String, int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Gets the statistics from the given server.
- getServerUserRegions(Connection, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getService() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorService
-
已过时。
- getService() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.SingletonCoprocessorService
-
已过时。
- getService() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getService(List<RpcServer.BlockingServiceAndInterface>, String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getServiceAndInterface(List<RpcServer.BlockingServiceAndInterface>, String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getServiceInterface() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- getServiceInterface(List<RpcServer.BlockingServiceAndInterface>, String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getServiceName(Descriptors.ServiceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
Returns the name to use for coprocessor service calls.
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.MasterCoprocessorService
-
已过时。
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.RegionCoprocessorService
-
已过时。
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.RegionServerCoprocessorService
-
已过时。
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export
-
- getServices() - 接口 中的方法org.apache.hadoop.hbase.Coprocessor
-
Coprocessor endpoints providing protobuf services should override this method.
- getServices() - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
By default, put up an Admin and a Client Service.
- getServices() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- getSessionId() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- getSessionPasswd() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- getSettingsQualifierForUserNamespace(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSettingsQualifierForUserTable(TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSettingsQualifierRegexForUserNamespace(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSettingsQualifierRegexForUserTable(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSharedData() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getSharedStoreFilePercentage() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getSharedStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getShort() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns the short value at the current position.
- getShort(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the short value at the given index.
- getShort(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Fetches the short at the given index.
- getShort() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns the short value at the current position.
- getShort() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getShort(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getShort(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getShort() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getShort(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Retrieve the short value at index
- getShort() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next short value from this range.
- getShortAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Fetches the short value at the given offset from current position.
- getShortAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- getShortAfterPosition(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- getShortHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getShortMidpointKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
- getShortMidpointKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
Don't do any fancy Block Index splitting tricks.
- getShortName() - 类 中的方法org.apache.hadoop.hbase.security.User
-
Returns the shortened version of the user name -- the portion that maps
to an operating system user name.
- getShortName() - 类 中的方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- getShortNameToLog() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getShortNameToLog(RegionInfo...) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- getShortNameToLog(List<RegionInfo>) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- getShortNameToLog() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getShortNameToLog(HRegionInfo...) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getShortNameToLog(List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getShortTextFormat(Message) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Return short version of Message toString'd, shorter than TextFormat#shortDebugString.
- getSimpleComparator() - 接口 中的方法org.apache.hadoop.hbase.CellComparator
-
- getSimpleComparator() - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl
-
- getSimpleComparator() - 类 中的方法org.apache.hadoop.hbase.CellComparatorImpl.MetaCellComparator
-
- getSimpleName() - 枚举 中的方法org.apache.hadoop.hbase.Size.Unit
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.io.encoding.EncodedDataBlock
-
Find the size of minimal buffer that could store compressed data.
- getSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- getSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Used to calculate the request call queue size.
- getSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- getSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getSizeToCheck(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- getSizeToCheck(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.SteppingSplitPolicy
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- getSleepInterval() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- getSleepTime() - 类 中的方法org.apache.hadoop.hbase.client.DelayingRunner
-
- getSlowAppendCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- getSlowAppendCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- getSmallCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getSmallCompactionQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getSmallCompactionThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSmallestReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getSnapshot() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- getSnapshotDescription() - 异常错误 中的方法org.apache.hadoop.hbase.snapshot.HBaseSnapshotException
-
- getSnapshotDescription() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getSnapshotDescription() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the SnapshotDescription
- getSnapshotDir() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the current snapshot working dir
- getSnapshotDirs(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSnapshotList(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
Returns the list of available snapshots in the specified location
- getSnapshotManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSnapshotManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getSnapshotManifest(Configuration, String, Path, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSnapshotRootDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the snapshot root directory.
- getSnapshots(Connection) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSnapshotsDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- getSnapshotsFilesMap(Configuration, AtomicLong, AtomicLong, AtomicLong) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
Returns the map of store files based on path for all snapshots
- getSnapshotSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- getSnapshotSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSnapshotSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Return the size of the snapshot(s) if any
- getSnapshotSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getSnapshotSizeQualifier(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getSnapshotStats(Configuration, SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
Returns the snapshot stats
- getSnapshotStats(Configuration, SnapshotProtos.SnapshotDescription, Map<Path, Integer>) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
Returns the snapshot stats
- getSnapshotsToScans(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSocketAddress() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getSource() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
- getSource() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the source server for the plan for this region.
- getSource() - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- getSourceName() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getSpaceProto() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- getSpaceQuota(String) - 类 中的方法org.apache.hadoop.hbase.quotas.NamespaceQuotaSnapshotStore
-
- getSpaceQuota(T) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaSnapshotStore
-
Fetch the Quota for the given subject.
- getSpaceQuota(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- getSpaceQuotaRegionSizes(RpcController, QuotaProtos.GetSpaceQuotaRegionSizesRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getSpaceQuotaRegionSizes(RpcController, QuotaProtos.GetSpaceQuotaRegionSizesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getSpaceQuotaSnapshotNotifier() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSpaceQuotaSnapshots(RpcController, QuotaProtos.GetSpaceQuotaSnapshotsRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getSplitAlgo(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplitCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitEditFilesSorted(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Returns sorted set of edit files made by splitter, excluding files
with '.temp' suffix.
- getSplitKey() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- getSplitKeysArray(MasterProtos.CreateTableRequest) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
get the split keys in form "byte [][]" from a CreateTableRequest proto
- getSplitLogDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getSplitLogManagerCoordination() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Method to retrieve coordination for split log manager
- getSplitLogManagerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getSplitLogWorkerCoordination() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Method to retrieve coordination for split log worker
- getSplitLogWorkerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getSplitMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- getSplitMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- getSplitOrMergeTracker() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSplitPartSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitPlanCount() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSplitPlanCount() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the number of region split plans executed.
- getSplitPlanCount() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Determines if Store should be split.
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- getSplitPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the split point for the split of this set of store files (approx. middle).
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
Override of getSplitPoint that determines the split point as the boundary between two
stripes, unless it causes significant imbalance between split sides' sizes.
- getSplitPolicy() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getSplitPolicyClass(TableDescriptor, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- getSplitProcMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getSplitQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getSplitQueueSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size of the split queue
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- getSplits(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- getSplits(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(Scan, SnapshotManifest, List<HRegionInfo>, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(Scan, SnapshotManifest, List<HRegionInfo>, Path, Configuration, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- getSplits() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- getSplitsDir(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getSplitSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- getSrcChecksum() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
Get the checksum of the source files from which Hadoop was compiled.
- getStagingDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.JobUtil
-
Initializes the staging directory and returns the path.
- getStamp() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- getStart() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getStartcode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getStartCode() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get HRegionServer start time
- getStartcode() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getStartCodeColumn(int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns the column qualifier for server start code column for replicaId
- getStartEndKeys() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
Gets the starting and ending row keys for every region in the currently
open table.
- getStartEndKeys() - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Gets the starting and ending row keys for every region in the currently
open table.
- getStartEndKeys() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- getStartEndKeys() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- getStartKey() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getStartKey(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Gets the start key from the specified region name.
- getStartKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileName
-
Gets the hex string of the md5 for a start key.
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getStartKey() - 接口 中的方法org.apache.hadoop.hbase.util.KeyRange
-
- getStartKeyForDisplay(RegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionInfoDisplay
-
Get the start key for display.
- getStartKeyForDisplay(HRegionInfo, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getStartKeyFromName(String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobFileName
-
get startKey from MobFileName.
- getStartKeys() - 类 中的方法org.apache.hadoop.hbase.client.HRegionLocator
-
Gets the starting row key for every region in the currently open table.
- getStartKeys() - 接口 中的方法org.apache.hadoop.hbase.client.RegionLocator
-
Gets the starting row key for every region in the currently open table.
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the start row.
- getStartRow(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getStarts() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- getStartTime() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- getStartTime() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getStartTime() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get hbase master start time
- getStartTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getStartTime() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getState() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- getState() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- getState() - 类 中的方法org.apache.hadoop.hbase.MetaTableAccessor.ReplicationBarrierResult
-
- getState(String) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- getState() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- getStatisticsTracker() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- getStats() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- getStats(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.ServerStatisticTracker
-
- getStats() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Get the statistics for this block cache.
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get counter statistics for this cache.
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- getStatsForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.backoff.ServerStatistics
-
- getStatus() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getStd(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a Pair with first object a List containing Sum and sum of squares,
and the second object as row count.
- getStealFromQueue() - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
Get a queue whose job might be stolen by the consumer of this original queue
- getStopper() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- getStopRowKey() - 类 中的方法org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- getStoragePolicy() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
Not using enum here because HDFS is not using enum for storage policy, see
org.apache.hadoop.hdfs.server.blockmanagement.BlockStoragePolicySuite for more details.
- getStoragePolicy() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getStoragePolicy() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getStoragePolicyName(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Get the storage policy of the directory of CF.
- getStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- getStore(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStore(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return the Store for the given family
Use with caution.
- getStoreArchivePath(Configuration, TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the directory to archive a store directory
- getStoreArchivePath(Configuration, RegionInfo, Path, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the directory to archive a store directory
- getStoreArchivePath(Configuration, RegionInfo, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Gets the directory to archive a store directory.
- getStoreCompactionPriority() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getStoreCompactionPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStoreCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStoreDir(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the directory path of the specified family
- getStoreEngine() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the StoreEngine that is backing this concrete implementation of Store.
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getStoreFileComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getStoreFileComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreFileCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreFileCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStorefileCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Returns the number of files currently in use.
- getStorefileCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreFileIndexSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreFileIndexSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
TODO: why we pass the same value to different counters?
- getStoreFileIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the Size (in bytes) of indexes in storefiles on disk.
- getStorefileIndexSizeInMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStorefileIndexSizeMB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStoreFileInfo(Configuration, FileSystem, RegionInfo, RegionInfo, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns a StoreFileInfo from the given FileStatus.
- getStoreFileList(byte[][]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStoreFileList(byte[][]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getStoreFileManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getStoreFileOpenAndCloseThreadPool(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStoreFileRootLevelIndexSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreFileRootLevelIndexSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStoreFiles() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartition
-
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStoreFiles(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files available for the family.
- getStoreFiles(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getStoreFiles(String, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files available for the family.
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the snapshot of the store files currently in use.
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStoreFiles(AdminProtos.AdminService.BlockingInterface, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to get the list of files of a column family
on a given region using admin protocol.
- getStoreFiles(RpcController, AdminProtos.AdminService.BlockingInterface, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
A helper to get the list of files of a column family
on a given region using admin protocol.
- getStoreFileScanner(boolean, boolean, boolean, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
Get a scanner to scan over this StoreFile.
- getStorefilesCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefilesCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreFileSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStoreFileSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total size of the store files this region server is serving from.
- getStoreFileSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the total size of the store files this region server is serving from.
- getStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getStorefileSizeInMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStoreFilesLocatedStatus(HRegionFileSystem, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files' LocatedFileStatus which available for the family.
- getStorefilesRootLevelIndexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefilesRootLevelIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStorefilesSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreFilesSize(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the store file size against this table
- getStoreFilesSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getStorefilesSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- getStoreFileTtl() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreFileTtl() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getStoreFileUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreFileUncompressedDataIndexSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStoreFlusher() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getStoreHomedir(Path, RegionInfo, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
已过时。
- getStoreHomedir(Path, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
已过时。
- getStoreOpenAndCloseThreadPool(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStores() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return the list of Stores managed by this region
Use with caution.
- getStores() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStoreSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.VersionedSegmentsList
-
- getStoreSequenceId() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getStoreSequenceId() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getStoreSizeUncompressed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreSizeUncompressed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getStream(boolean) - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Get the stream to use.
- getStream() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- getStream() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
Gets the input stream instance.
- getStreamScanner(boolean, boolean, boolean, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
Get a scanner which uses streaming read.
- getStripeBoundaries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStripeCompactMaxFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getStripeCompactMinFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getStripeCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStripes() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStub() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getSubmittedRows() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getSuffix(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
- getSum(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the sum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getSumHitCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumHitCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumHitCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumHitCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumRequestCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumRequestCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumRequestCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumRequestCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSuperUsers() - 类 中的静态方法org.apache.hadoop.hbase.security.Superusers
-
- getSupportedCiphers() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.CipherProvider
-
Return the set of Ciphers supported by this provider
- getSupportedCiphers() - 类 中的方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- getSupportedCiphers() - 类 中的方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- getSupportedCiphers() - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Get names of supported encryption algorithms
- getSupportedCiphers(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Get names of supported encryption algorithms
- getSupportedCompressionAlgorithms() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Get names of supported compression algorithms.
- getSupportedFilters() - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
Return a Set of filters supported by the Filter Language
- getSyncFuture(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getSystemLoadAverage() - 类 中的方法org.apache.hadoop.hbase.util.JVM
-
- getSystemUser() - 类 中的静态方法org.apache.hadoop.hbase.security.Superusers
-
- getTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Retrieve an
AsyncTable implementation for accessing a table.
- getTable(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
Retrieve an
AsyncTable implementation for accessing a table.
- getTable() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
Retrieve a Table implementation for accessing a table.
- getTable(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
Retrieve a Table implementation for accessing a table.
- getTable() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- getTable(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Gets the table name from the specified region name.
- getTable() - 类 中的方法org.apache.hadoop.hbase.client.replication.TableCFs
-
- getTable() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getTable(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- getTable() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Get current table name of the region
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to get the
Table.
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to get the
Table.
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the table name.
- getTable(String) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Caller closes the table afterwards.
- getTableAggregate() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory
-
Get a MetricsTableAggregateSource
- getTableAggregate() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- getTableArchivePath(Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the path to the table archive directory based on the configured archive directory.
- getTableArchivePath(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the path to the table archive directory based on the configured archive directory.
- getTableBuilder(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getTableBuilder(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncConnection
-
- getTableBuilder(TableName, ExecutorService) - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
- getTableBuilder(TableName, ExecutorService) - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- getTableCF(ReplicationProtos.TableCF[], String) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Get TableCF in TableCFs, if not exist, return null.
- getTableCFs() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Get replicable (table, cf-list) map of this peer
- getTableCFs() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Get replicable (table, cf-list) map of this peer
- getTableCFsMap() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- getTableDescriptor(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getTableDescriptor(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- getTableDescriptor() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getTableDescriptor() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the table descriptor from the Snapshot
- getTableDescriptorFromFs(FileSystem, Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the given table directly from the file system
if it exists, bypassing the local cache.
- getTableDescriptorFromFs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the table located at the given directory
directly from the file system if it exists.
- getTableDescriptors(List<String>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getTableDescriptors(List<String>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getTableDescriptors(RpcController, MasterProtos.GetTableDescriptorsRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getTableDescriptors(RpcController, MasterProtos.GetTableDescriptorsRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get list of TableDescriptors for requested tables.
- getTableDescriptors() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getTableDescriptorsByTableName(List<TableName>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getTableDescriptorsByTableName(List<TableName>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getTableDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getTableDir(Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Returns the Path object representing the table directory under
path rootdir
- getTableDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getTableEncodedRegionNameAndLastBarrier(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getTableEncodedRegionNamesForSerialReplication(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getTableFilter() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
- getTableFragmentation(HMaster) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and checks how many stores for each table
have more than one file in them.
- getTableFragmentation(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and checks how many stores for each table
have more than one file in them.
- getTableFromRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getTableHRegionLocations(AsyncTable<AdvancedScanResultConsumer>, Optional<TableName>) - 类 中的静态方法org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
Used to get all region locations for the specific table.
- getTableInfo() - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
- getTableInfo() - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
- getTableInfoPath(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Find the most current table info file for the table located in the given table directory.
- getTableLimiter(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified table.
- getTableLimiter(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Return the limiter for the specified table associated with this quota.
- getTableList() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- getTableLockName(TableName) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the table name used in the table lock.
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Get the name of the table
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Get the name of the table
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
Table name for state
- getTableName() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Get the name of the table
- getTableName() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getTableName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the table name converted to a byte array.
- getTableName() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the name of the table the region belongs to.
- getTableName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getTableName(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Returns the
TableName object representing
the table directory under
path rootdir
- getTableName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getTableName(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getTableNameArray(List<HBaseProtos.TableName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- getTableNameAsString() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getTableNamePrefix() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- getTableNames(RpcController, MasterProtos.GetTableNamesRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getTableNames(RpcController, MasterProtos.GetTableNamesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get list of userspace table names
- getTableNamespaceManager() - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
For internals use only.
- getTableNameSuffixedWithFamily(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- getTableNameTag(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets the table name tag.
- getTableQuota(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getTableQuotaSnapshots() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaObserverChore
-
Returns an unmodifiable view over the current
SpaceQuotaSnapshot objects
for each HBase table with a quota defined.
- getTableRegions(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- getTableRegions(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- getTableRegions(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Gets all of the regions of the specified table.
- getTableRegions(Connection, TableName, boolean) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Gets all of the regions of the specified table.
- getTableRegionsAndLocations(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Do not use this method to get meta table regions, use methods in MetaTableLocator instead.
- getTableRegionsAndLocations(Connection, TableName, boolean) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Do not use this method to get meta table regions, use methods in MetaTableLocator instead.
- getTableResource(String) - 类 中的方法org.apache.hadoop.hbase.rest.RootResource
-
- getTableRowKey(TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getTableRowKeyRegex(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getTables() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Get set of tables that are members of the group.
- getTableSet() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the table set
- getTablesInStates(TableState.State...) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
Return all tables in given states.
- getTableSize(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the table region size against this table
- getTableSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getTableSourceAgg() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTable
-
- getTableSpaceUtilization() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Gets the space usage and limit for each table.
- getTableSpaceUtilization() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getTableStartRowForMeta(TableName, MetaTableAccessor.QueryType) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getTableState(AsyncTable<?>, TableName) - 类 中的静态方法org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
- getTableState(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Retrieve TableState, represent current table state.
- getTableState(RpcController, MasterProtos.GetTableStateRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- getTableState(RpcController, MasterProtos.GetTableStateRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getTableState(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- getTableState(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Fetch table state for given table from META table
- getTableState(Result) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Decode table state from META Result.
- getTableStateManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getTableStateManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getTableStates(Connection) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Fetch table states from META table
- getTableStopRowForMeta(TableName, MetaTableAccessor.QueryType) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- getTableStoreFilePathMap(Map<String, Path>, FileSystem, Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir/tablename and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(Map<String, Path>, FileSystem, Path, TableName, PathFilter, ExecutorService, HBaseFsck.ErrorReporter) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir/tablename and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(FileSystem, Path, PathFilter, ExecutorService, HBaseFsck.ErrorReporter) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableToRegionMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get regions for tables
- getTableWrapper() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- getTableWrapperAgg() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTable
-
- getTag(byte) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTag(Cell, byte) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getTag(Cell, byte) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Retrieve Cell's first tag, matching the passed in type
- getTag(byte) - 接口 中的方法org.apache.hadoop.hbase.RawCell
-
Returns the specific tag of the given type
- getTagArray(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getTagCompressionContext() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultDecodingContext
-
- getTagCompressionContext() - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- getTags() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTags(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getTags(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- getTags() - 接口 中的方法org.apache.hadoop.hbase.RawCell
-
Creates a list of tags in the current cell
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTagsArray() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getTagsArray() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Contiguous raw bytes representing tags that may start at any index in the containing array.
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.NoTagsByteBufferKeyValue
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTagsByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getTagsByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTagsByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTagsByteBuffer() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTagsLength() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getTagsLength() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
HBase internally uses 2 bytes to store tags length in Cell.
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
This returns the total length of the tag bytes
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.NoTagsByteBufferKeyValue
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.NoTagsKeyValue
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.SizeCachedNoTagsKeyValue
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTagsOffset() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getTagsOffset() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
This returns the offset where the tag actually starts.
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTagsPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getTagsPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTagsPosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTagsPosition() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTail() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getTailSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getTargetState(String, QuotaProtos.SpaceQuota) - 类 中的方法org.apache.hadoop.hbase.quotas.NamespaceQuotaSnapshotStore
-
- getTargetState(T, QuotaProtos.SpaceQuota) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaSnapshotStore
-
- getTargetState(TableName, QuotaProtos.SpaceQuota) - 类 中的方法org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- getTaskNode() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getTaskReadySeq() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Used by unit tests to check how many tasks were processed
- getTaskReadySeq() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- getTaskReadySeq() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
Returns the number of tasks processed by coordination.
- getTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getTempDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getTertiaryToRegionInfoMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- getThird() - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- getThread() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- getThreadWakeFrequency() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Interval at which threads should run
- getThreshold() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- getThrottleProto() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- getThroughputControllerClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- getThroughputControllerClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- getTimeOfDeath(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Get the time when a server died
- getTimeout() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.client.Append
-
Gets the TimeRange used for this append.
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for retrieving the get's TimeRange
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Gets the TimeRange used for this increment.
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- getTimeRangeTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- getTimeRangeTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getTimeRangeTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTimestamp() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- getTimeStamp() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Method for retrieving the timestamp.
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTimestampKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getTimestampOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getTimestampOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getTimestampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- getTimestamps() - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- getTimeStampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSink
-
- getTimestampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationLoadSink
-
- getTimestampString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getTimeToLive() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getTimeToLive() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getTimeToLive() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getTimeToPurgeDeletes() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getTimeUnit() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- getTimeUnit() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- getTimeUnitInMillis() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getToken(String, String) - 类 中的方法org.apache.hadoop.hbase.security.User
-
Returns the Token of the specified kind associated with this user,
or null if the Token is not present.
- getTokenKind() - 类 中的方法org.apache.hadoop.hbase.security.SecurityInfo
-
- getTokens() - 类 中的方法org.apache.hadoop.hbase.security.User
-
Returns all the tokens stored in the user's credentials.
- getTopHosts() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the sorted list of hosts in terms of their weights
- getTopHostsWithWeights() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the sorted list of hosts in terms of their weights
- getTotalBloomSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getTotalBufferedCounter() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getTotalBytesRead() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
Getter for the number of bytes read from this stream, since creation.
- getTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getTotalFailedCounter() - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- getTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getTotalQueueSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getTotalQueueSize() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getTotalRequestCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the total number of requests per second.
- getTotalRequestsCount(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the total number of requests that have been issued against this table
- getTotalRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getTotalRequestsCount(ClusterStatusProtos.RegionLoad) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- getTotalRowActionRequestCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getTotalSizeOfCells(Result) - 类 中的静态方法org.apache.hadoop.hbase.client.Result
-
Get total size of raw cells
- getTotalSleepTime() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
Getter the total time spent in sleep.
- getTotalStaticBloomSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTotalStaticBloomSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size (in bytes) of the static bloom filters.
- getTotalStaticBloomSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns the total byte size of all Bloom filter bit arrays.
- getTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getTotalStaticIndexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTotalStaticIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size (in bytes) of of the static indexes including the roots.
- getTotalStaticIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns the total size of all index blocks in the data block indexes, including the root level,
intermediate levels, and the leaf level for multi-level indexes, or just the root level for
single-level indexes.
- getTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getTotalTableFragmentation(HMaster) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the total overall fragmentation percentage.
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- getTotalUncompressedSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
The total uncompressed size of the root index block, intermediate-level
index blocks, and leaf-level index blocks.
- getTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- getTrackers(RegionCoprocessorHost, NavigableSet<byte[]>, ScanInfo, long, Scan) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getTrailer() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getTrailer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- getTrailerHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getTrailerHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getTrailerHitCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getTrailerMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getTrailerMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getTrailerMissCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
- getTrailerSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getTs() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getTs() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getTTL() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Return the TTL requested for the result of the mutation, in milliseconds.
- getTTL() - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- getTtl() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getTTL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- getType() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- getType() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- getType() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
Returns the type of cell in a human readable format using
Cell.Type.
- getType() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getType() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- getType() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- getType() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getTypeByte() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getTypeByte() - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getTypeFilters() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
- getTypeString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getUGI() - 类 中的方法org.apache.hadoop.hbase.security.User
-
- getUnassignMetrics() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- getUnassignMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- getUnassignProcMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getUnblockedFlushCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getUncachedBlockReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getUncachedBlockReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
For testing
- getUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getUncompressedStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getUncompressedStoreFileSize() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getUniqueBlocksTotalWeight() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- getUnit(String) - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- getUnit(String) - 类 中的静态方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getUnit() - 类 中的方法org.apache.hadoop.hbase.Size
-
- getUnneededFiles(long, List<HStoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getUnneededFiles(long, List<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getUpdatesBlockedTime() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the amount of time that updates were blocked.
- getUrl() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
Get the subversion URL for the root hbase directory.
- getUsage() - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine
-
- getUsage() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
Returns the current usage, in bytes, of the target (e.g. table, namespace).
- getUsage() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- getUsage() - 类 中的方法org.apache.hadoop.hbase.util.ServerCommandLine
-
Implementing subclasses should return a usage string to print out.
- getUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getUsedHeapSize() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- getUsedHeapSize() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getUser() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
The user that compiled hbase.
- getUserFilter() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
- getUserFromPrincipal(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityUtil
-
Get the user name from a principal
- getUserFromRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUserLimiter(UserGroupInformation, TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified user/table.
- getUserName() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- getUserQuota(Connection, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUserQuota(Connection, String, TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUserQuota(Connection, String, String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUserQuotaState(UserGroupInformation) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the QuotaState associated to the specified user.
- getUserRowKey(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUserRowKeyRegex(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getUseThisHostnameInstead(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getUseThisHostnameInstead(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getUtf8ByteArrays(List<String>) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- getUUIDForCluster(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKClusterId
-
Get the UUID for the provided ZK watcher.
- getValue(Bytes) - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getValue(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- getValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Get the latest version of the specified column.
- getValue() - 枚举 中的方法org.apache.hadoop.hbase.client.security.SecurityCapability
-
- getValue(Bytes) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Getter for accessing the metadata associated with the key.
- getValue(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Getter for accessing the metadata associated with the key.
- getValue(String) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Getter for accessing the metadata associated with the key.
- getValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getValue(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getValue(byte[], byte[], Cell) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- getValue() - 类 中的方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
- getValue() - 类 中的方法org.apache.hadoop.hbase.filter.SubstringComparator
-
- getValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getValue(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getValue(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getValue() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Gets a buffer view to the current value.
- getValue(String) - 枚举 中的静态方法org.apache.hadoop.hbase.KeepDeletedCells
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- getValueArray() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
Contiguous raw bytes that may start at any index in the containing array.
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getValueArray() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getValueAsBigDecimal(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Converts the value bytes of the given cell into a BigDecimal
- getValueAsByte(Tag) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Converts the value bytes of the given tag into a byte value
- getValueAsByteBuffer(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Returns the value wrapped in a new ByteBuffer.
- getValueAsByteBuffer(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Returns the value wrapped in a new ByteBuffer.
- getValueAsDouble(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Converts the value bytes of the given cell into a double value
- getValueAsInt(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Converts the value bytes of the given cell into a int value
- getValueAsLong(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Converts the value bytes of the given cell into a long value
- getValueAsLong(Tag) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Converts the value bytes of the given tag into a long value
- getValueAsString(Tag) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Converts the value bytes of the given tag into a String value
- getValueBufferShallowCopy(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- getValueBufferShallowCopy(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- getValueByteBuffer() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
- getValueByteBuffer() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getValueFromMBean(ObjectName, String) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- getValueLength() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getValueLength() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- getValueOffset() - 接口 中的方法org.apache.hadoop.hbase.Cell
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- getValueOffset() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getValuePosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferExtendedCell
-
- getValuePosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- getValuePosition() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- getValuePosition() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- getValues() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
It clone all bytes of all elements.
- getValues() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- getValues() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- getValues() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- getValues() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- getValues() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- getValueShallowCopy() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
Does a shallow copy of the value at the current position.
- getValueShallowCopy() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- getValueString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- getValueString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- getValueString() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getValueString(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- getVersion() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- getVersion() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- getVersion() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.CoprocessorEnvironment
-
- getVersion(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
May return "0.0.0" when server is not online
- getVersion() - 类 中的方法org.apache.hadoop.hbase.regionserver.VersionedSegmentsList
-
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getVersion(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- getVersion() - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
Get the hbase version.
- getVersion() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.SetData
-
- getVersionedBytes() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- getVersionedList() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getVersionedTail() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- getVersionInfo() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get a protocol buffer VersionInfo
- getVersionNumber(HBaseProtos.VersionInfo) - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
Pack the full number version in a int. by shifting each component by 8bit,
except the dot release which has 12bit.
- getVersionNumber(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
May return 0 when server is not online.
- getVersionNumber() - 接口 中的方法org.apache.hadoop.hbase.ServerMetrics
-
- getVersionResource() - 类 中的方法org.apache.hadoop.hbase.rest.RootResource
-
- getVersionResource() - 类 中的方法org.apache.hadoop.hbase.rest.VersionResource
-
Dispatch /version/rest to self.
- getViolationPolicy(QuotaProtos.SpaceQuota) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- getViolationPolicy() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.SpaceLimitingException
-
Returns the violation policy in effect.
- getVisibilityExpressionResolver() - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- getVLong(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getVLong() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- getVLong(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Retrieve the long value at index which is stored as VLong
- getVLong() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next long value, which is stored as VLong, from this range
- getVLongSize(long) - 类 中的静态方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- getWaitInterval(long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- getWaitInterval(long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- getWaitInterval() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- getWaitInterval() - 异常错误 中的方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- getWAL() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALCoprocessorEnvironment
-
- getWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getWAL(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWAL(RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- getWAL(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- getWAL(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getWAL(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWAL(RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- getWALArchiveDirectoryName(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Construct the directory name for all old WALs on a given server.
- getWALArchivePath(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- getWALBlockSize(Configuration, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALUtil
-
Blocksize returned here is 2x the default HDFS blocksize unless explicitly set in
Configuration.
- getWALCellCodecClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getWALDirectoryName(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Construct the directory name for all WALs on a given server.
- getWalEdit(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getWALEntryfilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a default set of filters
- getWALEntryfilter() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Returns a WALEntryFilter to use for filtering out WALEntries from the log.
- getWALFile() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination.SplitTaskDetails
-
- getWALFile() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getWALFileLengthProvider() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- getWALFileSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the size of WAL files of this region server.
- getWALFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getWALFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getWalGroupId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getWalGroupsReplicationStatus() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALObserver() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALCoprocessor
-
- getWALPosition(ServerName, String, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get the current position for a specific WAL in a given queue for a given regionserver.
- getWALPrefixFromWALName(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Get prefix of the log from its name, assuming WAL name in format of
log_prefix.filenumber.log_suffix
- getWalProcedureStore() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getWALProvider() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWalRoller() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALRootDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getWALRootDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALRootDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALs() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWALs() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- getWALsInQueue(ServerName, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Get a list of all WALs in the given queue on the given region server.
- getWatcher() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKListener
-
- getWebAppContext() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- getWebAppsPath(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- getWebAppsPath(String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the pathname to the webapps files.
- getWeight(String) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the weight for a specific host, that will be the total bytes of all
blocks on the host
- getWeight() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
- getWorkingSnapshotDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the general working directory for snapshots - where they are built, where they are
temporarily copied on export, etc.
- getWorkingSnapshotDir(SnapshotProtos.SnapshotDescription, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory to build a snapshot, before it is finalized
- getWorkingSnapshotDir(String, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory to build a snapshot, before it is finalized
- getWrapper() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIO
-
- getWritable(byte[], Writable) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
Set bytes into the passed Writable by calling its
Writable.readFields(java.io.DataInput).
- getWritable(byte[], int, int, Writable) - 类 中的静态方法org.apache.hadoop.hbase.util.Writables
-
Set bytes into the passed Writable by calling its
Writable.readFields(java.io.DataInput).
- getWritableSize() - 接口 中的方法org.apache.hadoop.hbase.io.WritableWithSize
-
Provide a size hint to the caller. write() should ideally
not go beyond this if at all possible.
- getWriteAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- getWriteAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
- getWriteAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- getWriteAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- getWriteBufferPeriodicFlushTimeoutMs() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Returns the current periodic flush timeout value in milliseconds.
- getWriteBufferPeriodicFlushTimeoutMs() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- getWriteBufferPeriodicFlushTimeoutMs() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getWriteBufferPeriodicFlushTimeoutMs() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getWriteBufferPeriodicFlushTimerTickMs() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Returns the current periodic flush timertick interval in milliseconds.
- getWriteBufferPeriodicFlushTimerTickMs() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- getWriteBufferPeriodicFlushTimerTickMs() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getWriteBufferPeriodicFlushTimerTickMs() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getWriteBufferSize() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
Returns the maximum size in bytes of the write buffer.
- getWriteBufferSize() - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Returns the maximum size in bytes of the write buffer for this HTable.
- getWriteBufferSize() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
Returns the maximum size in bytes of the write buffer for this HTable.
- getWriteBufferSize() - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- getWriteBufferSize() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getWriteEntry() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
Use it to complete mvcc transaction.
- getWriteNumber() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl.WriteEntry
-
- getWritePoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getWriteQueueLength() - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapper
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the write queue for metrics when use RWQueueRpcExecutor.
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getWriterClassName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- getWriterClassName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- getWriterClassName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureAsyncProtobufLogWriter
-
- getWriterClsNames() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getWriterClsNames() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- getWriteRequestCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- getWriteRequestCount() - 接口 中的方法org.apache.hadoop.hbase.RegionMetrics
-
- getWriteRequestCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapper
-
Get the total number of mutations that have been issued against this region.
- getWriteRequestCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getWriteRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the number of write requests to regions hosted on this region server.
- getWriteRequestsCount(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregate
-
Get the number of write requests that have been issued against this table
- getWriteRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getWriteRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- getWriterFactory(Configuration, CacheConfig) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns the factory to be used to create
HFile writers
- getWriterFactoryNoCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns the factory to be used to create
HFile writers.
- getWriteRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Get timeout of each rpc write request in this Table instance.
- getWriteRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- getWriteRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- getWriteRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- getWriteRpcTimeout(TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Get timeout of each rpc write request in this Table instance.
- getWriteRpcTimeout() - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- getWriteRpcTimeout(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- getWriteRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- getWriteTime() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getWriteTime() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- getWrittenBytes() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- getWrittenBytes() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- getZKQuorumServersString(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Return the ZK Quorum servers string given the specified configuration.
- getZkw() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get the ZK connection to this peer
- getZNodeForReplica(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
Get the znode string corresponding to a replicaId
- getZnodeParent() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKConfig.ZKClusterKey
-
- getZNodePaths() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Get the znodePaths.
- getZooKeeper() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getZooKeeper() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getZooKeeper() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Gets the ZooKeeper instance for this server.
- getZooKeeper() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- getZooKeeperClusterKey(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Get the key to the ZK ensemble for this configuration without
adding a name at the end
- getZooKeeperClusterKey(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Get the key to the ZK ensemble for this configuration and append
a name at the end
- getZookeeperQuorum() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapper
-
Get the ZooKeeper Quorum Info
- getZookeeperQuorum() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getZookeeperQuorum() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerWrapper
-
Get the ZooKeeper Quorum Info
- getZooKeeperServerNum() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- globalLimiter - 类 中的变量org.apache.hadoop.hbase.quotas.QuotaState
-
- GlobalQuotaSettings - org.apache.hadoop.hbase.quotas中的类
-
An object which captures all quotas types (throttle or space) for a subject (user, table, or
namespace).
- GlobalQuotaSettings(String, TableName, String) - 类 的构造器org.apache.hadoop.hbase.quotas.GlobalQuotaSettings
-
- GlobalQuotaSettingsImpl - org.apache.hadoop.hbase.quotas中的类
-
- GlobalQuotaSettingsImpl(String, TableName, String, QuotaProtos.Quotas) - 类 的构造器org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- GlobalQuotaSettingsImpl(String, TableName, String, QuotaProtos.Throttle, Boolean, QuotaProtos.SpaceQuota) - 类 的构造器org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- grabQuota(long, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes the specified write and read amount from the quota.
- grabQuota(long, long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- GREATER_THAN_ARRAY - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
GREATER_THAN Array
- GREATER_THAN_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
- GREATER_THAN_OR_EQUAL_TO_ARRAY - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
GREATER_THAN_OR_EQUAL_TO Array
- GREATER_THAN_OR_EQUAL_TO_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
- group() - 类 中的方法org.apache.hadoop.hbase.util.NettyEventLoopGroupConfig
-
- group(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.BoundedGroupingStrategy
-
- group(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.NamespaceGroupingStrategy
-
- group(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider.RegionGroupingStrategy
-
Given an identifier and a namespace, pick a group.
- GROUP_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapred.GroupingTableMap
-
JobConf parameter to specify the columns used to produce the key passed to
collect from the map phase
- GROUP_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
JobConf parameter to specify the columns used to produce the key passed to
collect from the map phase.
- GROUP_NAME_DELIMITER - 接口 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider.RegionGroupingStrategy
-
- GroupingTableMap - org.apache.hadoop.hbase.mapred中的类
-
Extract grouping columns from input record
- GroupingTableMap() - 类 的构造器org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- GroupingTableMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Extract grouping columns from input record.
- GroupingTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
- GZIP - 类 中的静态变量org.apache.hadoop.hbase.util.Base64
-
Specify that data should be gzip-compressed.
- H - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'H'
- HADOOP_DOMAIN - 类 中的静态变量org.apache.hadoop.hbase.util.JSONMetricUtil
-
- HalfStoreFileReader - org.apache.hadoop.hbase.io中的类
-
A facade for a
HFile.Reader that serves up
either the top or bottom half of a HFile where 'bottom' is the first half
of the file containing the keys that sort lowest and 'top' is the second half
of the file with keys that sort greater than those of the bottom half.
- HalfStoreFileReader(FileSystem, Path, CacheConfig, Reference, boolean, AtomicInteger, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.HalfStoreFileReader
-
Creates a half file reader for a normal hfile.
- HalfStoreFileReader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, boolean, AtomicInteger, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.HalfStoreFileReader
-
Creates a half file reader for a hfile referred to by an hfilelink.
- handleCoprocessorThrowable(E, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
This is used by coprocessor hooks which are declared to throw IOException
(or its subtypes).
- handleDegenerateRegion(HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling a region that has the same start and end key.
- handleDegenerateRegion(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling a region that has the same start and end key.
- handleDuplicateStartKeys(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two regions that have the same start key.
- handleDuplicateStartKeys(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling two regions that have the same start key.
- handleHoleInRegionChain(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling a region hole between two keys.
- handleHoleInRegionChain(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling a region hole between two keys.
- handleOverlapGroup(Collection<HBaseFsck.HbckInfo>) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling an group of regions that overlap.
- handleOverlapGroup(Collection<HBaseFsck.HbckInfo>) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling an group of regions that overlap.
- handleOverlapInRegionChain(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two reigons that overlap in some arbitrary way.
- handleOverlapInRegionChain(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling two reigons that overlap in some arbitrary way.
- handlerAdded(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.CryptoAESWrapHandler
-
- handlerAdded(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseRpcConnectionHeaderHandler
-
- handlerAdded(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClientHandler
-
- handlerAdded(ChannelHandlerContext) - 类 中的方法org.apache.hadoop.hbase.security.SaslWrapHandler
-
- handleRegionEndKeyNotEmpty(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling case where a Table has a last region that does not
have an empty end key.
- handleRegionEndKeyNotEmpty(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling case where a Table has a last region that does not
have an empty end key.
- handleRegionStartKeyNotEmpty(HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling case where a Table has a first region that does not
have an empty start key.
- handleRegionStartKeyNotEmpty(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling case where a Table has a first region that does not
have an empty start key.
- handleRemoteException(Exception) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- handleReportForDutyResponse(RegionServerStatusProtos.RegionServerStartupResponse) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- handleSplit(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two regions that have the same regionID
a specific case of a split
- has(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
A convenience method to determine if this object's familyMap contains
a value assigned to the given family & qualifier.
- has(byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
A convenience method to determine if this object's familyMap contains
a value assigned to the given family, qualifier and timestamp.
- has(byte[], byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
A convenience method to determine if this object's familyMap contains
a value assigned to the given family, qualifier and timestamp.
- has(byte[], byte[], long, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
A convenience method to determine if this object's familyMap contains
the given value assigned to the given family, qualifier and timestamp.
- has(byte[], byte[], long, byte[], boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- HAS_LARGE_RESULT - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- hasAdministratorAccess(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
Does the user sending the HttpServletRequest has the administrator ACLs?
- hasArray() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- hasArray() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- hasArray() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- hasArray() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- hasArray() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- hasArray() - 接口 中的方法org.apache.hadoop.hbase.Tag
-
Tells whether or not this Tag is backed by a byte array.
- hasAttributes() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasBody() - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- hasBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- hasCallTimeout() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- hasCallTimeout() - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- hasCallTimeout() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- hasCapability(FSDataOutputStream, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
If our FileSystem version includes the StreamCapabilities class, check if
the given stream has a particular capability.
- hasCellBlockSupport() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- hasCellBlockSupport() - 类 中的方法org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- hasCellBlockSupport() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcClient
-
- hasCellTTL() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasCellVisibility() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasColumnFamily(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Checks to see if this table contains the given column family
- hasColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Checks to see if this table contains the given column family
- hasColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- hasColumns() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- hasCompression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- hasCoprocessor(String) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Check if the table has an attached co-processor represented by the name
className
- hasCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Check if the table has an attached co-processor represented by the name
className
- hasCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Check if the table has an attached co-processor represented by the name className
- hasEncodedName(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Does region name contain its encoded name?
- hasEndRow() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- hasError() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncRequestFuture
-
- hasException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- hasException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
- hasException() - 类 中的方法org.apache.hadoop.hbase.zookeeper.DeletionListener
-
Check if an exception has occurred when re-setting the watch.
- hasFamilies() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Method for checking if any families have been inserted into this Get
- hasFamilies() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Method for checking if any families have been inserted into this Increment
- hasFamilies() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- hasFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Checks to see if this table contains the given column family
- hasFamilyStamp - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
Primarily used to check for conflicts with scans(such as scans that do not read a full row at a
time).
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
Fitlers that never filter by modifying the returned List of Cells can
inherit this implementation that does nothing.
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.PageFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- hasFilterRow() - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- hasFoundKV() - 类 中的方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- hasGeneralBloom() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
- hasGlobalReplicationScope() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- hash - 类 中的变量org.apache.hadoop.hbase.util.AbstractByteRange
-
Variable for lazy-caching the hashCode of this range.
- hash - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Hash Function
- Hash - org.apache.hadoop.hbase.util中的类
-
This class represents a common API for hashing functions.
- Hash() - 类 的构造器org.apache.hadoop.hbase.util.Hash
-
- hash(HashKey<T>, int) - 类 中的方法org.apache.hadoop.hbase.util.Hash
-
Calculate a hash using bytes from HashKey and the provided seed value.
- hash(HashKey<T>, int) - 类 中的方法org.apache.hadoop.hbase.util.JenkinsHash
-
taken from hashlittle() -- hash a variable-length key into a 32-bit value
- hash(HashKey<T>, int) - 类 中的方法org.apache.hadoop.hbase.util.MurmurHash
-
- hash(HashKey<T>, int) - 类 中的方法org.apache.hadoop.hbase.util.MurmurHash3
-
Returns the MurmurHash3_x86_32 hash.
- hash128(String...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return the MD5 digest of the concatenation of the supplied arguments.
- hash128(byte[]...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return the MD5 digest of the concatenation of the supplied arguments.
- hash256(String...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return the SHA-256 digest of the concatenation of the supplied arguments.
- hash256(byte[]...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return the SHA-256 digest of the concatenation of the supplied arguments.
- HASH_NONCE_GRACE_PERIOD_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.RowMutations
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPlan
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.filter.NullComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
Don't count timestamp in hash code calculation
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mob.CachedMobFile
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileName
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.net.Address
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionSourceImpl
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.security.User
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.Size
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- hashCode(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- hashCode(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- hashCode(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- hashCode(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.ImmutableByteArray
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.NonceKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.PairOfSameType
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.CreateAndFailSilent
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.DeleteNodeFailSilent
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp.SetData
-
- hashCount - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Number of hash functions
- HashedBytes - org.apache.hadoop.hbase.util中的类
-
This class encapsulates a byte array and overrides hashCode and equals so
that it's identity is based on the data rather than the array instance.
- HashedBytes(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.HashedBytes
-
- hasHigherPriority(ByteBuffer, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
Returns which operator has higher precedence
If a has higher precedence than b, it returns true
If they have the same precedence, it returns false
- HashKey<T> - org.apache.hadoop.hbase.util中的类
-
Used to calculate the hash
Hash algorithms for Bloomfilters.
- HashKey(T) - 类 的构造器org.apache.hadoop.hbase.util.HashKey
-
- HashMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- HashTable - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable
-
- HashTable.HashMapper - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable.TableHash - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable.TableHash.Reader - org.apache.hadoop.hbase.mapreduce中的类
-
- hashType - 类 中的变量org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
Hash function type to use, as defined in
Hash
- hashType - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Hash type
- hasId() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKClusterId
-
- hasImmutableSegments() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- hasLabels() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- hasLeader() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKLeaderManager
-
已过时。
- hasMaster() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Check if there is a master available.
- HasMasterServices - org.apache.hadoop.hbase.coprocessor中的接口
-
- hasMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- hasMinimumVersion(HBaseProtos.VersionInfo, int, int) - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
- hasMobColumns(TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Checks whether this table has mob-enabled columns.
- hasMobReferenceTag(List<Tag>) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Whether the tag list has a mob reference tag.
- hasMoreValues() - 枚举 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- hasMoreValues(ScannerContext.NextState) - 枚举 中的静态方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- hasMVCCInfo() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- hasMVCCInfo() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactorSegmentsIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreMergerSegmentsIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.rest.RowResultGenerator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.types.StructIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists.Iterator
-
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
- hasNullColumn - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- hasNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- hasReferences() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- hasReferences(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns true if the specified family has reference files
- hasReferences(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Check whether region has Reference file
- hasReferences() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- hasReferences() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- hasReferences(Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Determines whether any files in the collection are references.
- hasRegionMemStoreReplication() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
- hasRegionMemStoreReplication() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- hasRegionMemstoreReplication() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
- hasRegionMemStoreReplication() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- HasRegionServerServices - org.apache.hadoop.hbase.coprocessor中的接口
-
- hasRegionsToAdd() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasRegionsToRemove() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasRegionsToRestore() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasRemaining() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns true if there are elements between the current position and the limt
- hasRemaining() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns true if there are elements between the current position and the limt
- hasRemaining() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- hasTagCompression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasTagCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasTagCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- HasThread - org.apache.hadoop.hbase.util中的类
-
Abstract class which contains a Thread and delegates the common Thread
methods to that instance.
- HasThread() - 类 的构造器org.apache.hadoop.hbase.util.HasThread
-
- HasThread(String) - 类 的构造器org.apache.hadoop.hbase.util.HasThread
-
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- hasTooManyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- hasTooManyStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- hasTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- hasUnDeletedQueues() - 类 中的方法org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- hasUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
- hasValidMobRefCellValue(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Indicates whether the current mob ref cell has a valid value.
- HBASE_BALANCER_MAX_BALANCING - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for the max balancing time
- HBASE_BALANCER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for the balancer period
- HBASE_CANARY_READ_RAW_SCAN_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CANARY_WRITE_DATA_TTL_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Canary config keys
- HBASE_CANARY_WRITE_PERSERVER_REGIONS_LOWERLIMIT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CANARY_WRITE_PERSERVER_REGIONS_UPPERLIMIT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CANARY_WRITE_TABLE_CHECK_PERIOD_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CANARY_WRITE_VALUE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CELLS_SCANNED_PER_HEARTBEAT_CHECK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
The number of cells scanned in between timeout checks.
- HBASE_CHECKSUM_VERIFICATION - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
If this parameter is set to true, then hbase will read
data and then verify checksums.
- HBASE_CLIENT_ASYNC_CONNECTION_IMPL - 类 中的静态变量org.apache.hadoop.hbase.client.ConnectionFactory
-
- HBASE_CLIENT_CONNECTION_IMPL - 接口 中的静态变量org.apache.hadoop.hbase.client.ClusterConnection
-
Key for configuration in Configuration whose value is the class we implement making a
new Connection instance.
- HBASE_CLIENT_ENABLE_FAST_FAIL_MODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_FAST_FAIL_CLEANUP_DURATION_MS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_FAST_FAIL_CLEANUP_MS_DURATION_MS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_FAST_FAIL_INTERCEPTOR_IMPL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_FAST_FAIL_MODE_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for enabling/disabling the fast fail mode.
- HBASE_CLIENT_FAST_FAIL_THREASHOLD_MS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_FAST_FAIL_THREASHOLD_MS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLIENT_INSTANCE_ID - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for unique identifier for this Configuration
instance.
- HBASE_CLIENT_IPC_POOL_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase client IPC pool size
- HBASE_CLIENT_IPC_POOL_TYPE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase client IPC pool type
- HBASE_CLIENT_MAX_PERREGION_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The maximum number of concurrent connections the client will maintain to a single
Region.
- HBASE_CLIENT_MAX_PERSERVER_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The maximum number of concurrent connections the client will maintain to a single
RegionServer.
- HBASE_CLIENT_MAX_TOTAL_TASKS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The maximum number of concurrent connections the client will maintain.
- HBASE_CLIENT_META_OPERATION_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase client operation timeout.
- HBASE_CLIENT_META_REPLICA_SCAN_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase client meta replica scan call timeout.
- HBASE_CLIENT_META_REPLICA_SCAN_TIMEOUT_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default HBase client meta replica scan call timeout, 1 second
- HBASE_CLIENT_OPERATION_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase client operation timeout.
- HBASE_CLIENT_PAUSE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for client pause value, used mostly as value to wait
before running a retry of a failed get, region lookup, etc.
- HBASE_CLIENT_PAUSE_FOR_CQTBE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for client pause value for special case such as call queue too big, etc.
- HBASE_CLIENT_PERSERVER_REQUESTS_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The maximum number of concurrent pending RPC requests for one server in process level.
- HBASE_CLIENT_RETRIES_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for maximum retries, used as maximum for all retryable
operations such as fetching of the root region from root region server,
getting a cell's value, starting a row update, etc.
- HBASE_CLIENT_SCANNER_ASYNC_PREFETCH - 类 中的静态变量org.apache.hadoop.hbase.client.Scan
-
Parameter name for client scanner sync/async prefetch toggle.
- HBASE_CLIENT_SCANNER_CACHING - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name to set the default scanner caching for all clients.
- HBASE_CLIENT_SCANNER_MAX_RESULT_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for maximum number of bytes returned when calling a scanner's next method.
- HBASE_CLIENT_SCANNER_TIMEOUT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The client scanner timeout period in milliseconds.
- HBASE_CLIENT_SERVERSIDE_RETRIES_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_CLUSTER_MINIMUM_MEMORY_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_DIR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for HBase instance root directory
- HBASE_DIR_PERMS - 类 中的静态变量org.apache.hadoop.hbase.master.MasterFileSystem
-
Parameter name for HBase instance root directory permission
- HBASE_FLUSH_POLICY_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
- HBASE_FLUSH_THROUGHPUT_CONTROLLER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_HIGHER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_OFFPEAK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_THROUGHPUT_TUNE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_FLUSH_MAX_THROUGHPUT_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_MAX_THROUGHPUT_UPPER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_THROUGHPUT_CONTROL_CHECK_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_THROUGHPUT_TUNE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HTTP_STATIC_USER - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- HBASE_JETTY_LOGS_SERVE_ALIASES - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
Enable/Disable aliases serving from jetty
- HBASE_MASTER_BALANCER_MAX_RIT_PERCENT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for the max percent of regions in transition
- HBASE_MASTER_CLUSTER_SCHEMA_OPERATION_TIMEOUT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.master.ClusterSchema
-
Timeout for cluster operations in milliseconds.
- HBASE_MASTER_LOADBALANCE_BYTABLE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for balancing the cluster by table
- HBASE_MASTER_LOADBALANCER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for pluggable load balancers
- HBASE_MASTER_LOGCLEANER_PLUGINS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_MASTER_NORMALIZER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config for pluggable region normalizer
- HBASE_MASTER_WAIT_ON_SERVICE_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.master.HMaster
-
- HBASE_MAX_CELL_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- HBASE_META_BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for number of versions, kept by meta table.
- HBASE_META_SCANNER_CACHING - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for number of rows that will be fetched when calling next on
a scanner if it is not served from memory.
- HBASE_META_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for number of versions, kept by meta table.
- HBASE_NON_TABLE_DIRS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Directories that are not HBase table directories
- HBASE_NON_USER_TABLE_DIRS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Directories that are not HBase user table directories
- HBASE_REGION_SPLIT_POLICY_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_REGIONSERVER_LEASE_PERIOD_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HBASE_REGIONSERVER_MINIBATCH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- HBASE_RPC_READ_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
timeout for each read RPC
- HBASE_RPC_SHORTOPERATION_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
timeout for short operation RPC
- HBASE_RPC_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
timeout for each RPC
- HBASE_RPC_WRITE_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
timeout for each write RPC
- HBASE_RS_HEAP_MEMORY_TUNER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_RS_HEAP_MEMORY_TUNER_DEFAULT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_RS_HEAP_MEMORY_TUNER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_RS_NONCES_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Whether nonces are enabled; default is true.
- HBASE_RSGROUP_LOADBALANCER_CLASS - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupableBalancer
-
Config for pluggable load balancers
- HBASE_SECURITY_AUTHORIZATION_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.security.User
-
- HBASE_SECURITY_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.security.User
-
- HBASE_SERVER_PAUSE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for server pause value, used mostly as value to wait before
running a retry of a failed operation.
- HBASE_SERVER_SCANNER_MAX_RESULT_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for maximum number of bytes returned when calling a scanner's next method.
- HBASE_SPLITLOG_MANAGER_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for SplitLog manager timeout
- HBASE_SSL_ENABLED_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- HBASE_SSL_ENABLED_KEY - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
Enable/Disable ssl for http server
- HBASE_TEMP_DIRECTORY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Temporary directory used for table creation and deletion
- HBASE_THROUGHPUT_CONTROLLER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- HBASE_WAL_DIR - 类 中的静态变量org.apache.hadoop.hbase.util.CommonFSUtils
-
Parameter name for HBase WAL directory
- HBASE_WAL_DIR_PERMS - 类 中的静态变量org.apache.hadoop.hbase.master.MasterFileSystem
-
Parameter name for HBase WAL directory permission
- HBaseAdmin - org.apache.hadoop.hbase.client中的类
-
HBaseAdmin is no longer a client API.
- HBaseAdmin.NamespaceFuture - org.apache.hadoop.hbase.client中的类
-
- HBaseAdmin.ProcedureFuture<V> - org.apache.hadoop.hbase.client中的类
-
Future that waits on a procedure result.
- HBaseAdmin.ProcedureFuture.WaitForStateCallable - org.apache.hadoop.hbase.client中的接口
-
- HBaseAdmin.TableFuture<V> - org.apache.hadoop.hbase.client中的类
-
- HBaseAdmin.TableFuture.TableWaitForStateCallable - org.apache.hadoop.hbase.client中的类
-
- HBASECLIENT_IMPL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- HBaseConfiguration - org.apache.hadoop.hbase中的类
-
Adds HBase configuration files to a Configuration
- HBaseConfiguration() - 类 的构造器org.apache.hadoop.hbase.HBaseConfiguration
-
- HBaseConfiguration(Configuration) - 类 的构造器org.apache.hadoop.hbase.HBaseConfiguration
-
- HBaseConfTool - org.apache.hadoop.hbase.util中的类
-
Tool that prints out a configuration.
- HBaseConfTool() - 类 的构造器org.apache.hadoop.hbase.util.HBaseConfTool
-
- HBaseException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Base checked exception in HBase.
- HBaseException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.HBaseException
-
- HBaseException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.HBaseException
-
- HBaseException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.HBaseException
-
- HBaseException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.HBaseException
-
- HBaseFsck - org.apache.hadoop.hbase.util中的类
-
HBaseFsck (hbck) is a tool for checking and repairing region consistency and
table integrity problems in a corrupted HBase.
- HBaseFsck(Configuration) - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsck
-
Constructor
- HBaseFsck(Configuration, ExecutorService) - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsck
-
Constructor
- HBaseFsck.ErrorReporter - org.apache.hadoop.hbase.util中的接口
-
- HBaseFsck.ErrorReporter.ERROR_CODE - org.apache.hadoop.hbase.util中的枚举
-
- HBaseFsck.HbckInfo - org.apache.hadoop.hbase.util中的类
-
Maintain information about a particular region.
- HBaseFsck.RegionRepairException - org.apache.hadoop.hbase.util中的异常错误
-
Exception thrown when a integrity repair operation fails in an
unresolvable way.
- HBaseFsck.TableInfo - org.apache.hadoop.hbase.util中的类
-
Maintain information about a particular table.
- HBaseFsckRepair - org.apache.hadoop.hbase.util中的类
-
This class contains helper methods that repair parts of hbase's filesystem
contents.
- HBaseFsckRepair() - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsckRepair
-
- HBaseInterfaceAudience - org.apache.hadoop.hbase中的类
-
This class defines constants for different classes of hbase limited private apis
- HBaseIOException - org.apache.hadoop.hbase中的异常错误
-
All hbase specific IOExceptions should be subclasses of HBaseIOException
- HBaseIOException() - 异常错误 的构造器org.apache.hadoop.hbase.HBaseIOException
-
- HBaseIOException(String) - 异常错误 的构造器org.apache.hadoop.hbase.HBaseIOException
-
- HBaseIOException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.HBaseIOException
-
- HBaseIOException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.HBaseIOException
-
- HBaseMarkers - org.apache.hadoop.hbase.log中的类
-
- HBasePolicyProvider - org.apache.hadoop.hbase.security中的类
-
Implementation of secure Hadoop policy provider for mapping
protocol interfaces to hbase-policy.xml entries.
- HBasePolicyProvider() - 类 的构造器org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- HBaseReplicationEndpoint - org.apache.hadoop.hbase.replication中的类
-
- HBaseReplicationEndpoint() - 类 的构造器org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- HBaseReplicationEndpoint.PeerRegionServerListener - org.apache.hadoop.hbase.replication中的类
-
Tracks changes to the list of region servers in a peer's cluster.
- HBaseRpcController - org.apache.hadoop.hbase.ipc中的接口
-
Optionally carries Cells across the proxy/service interface down into ipc.
- HBaseRpcController.CancellationCallback - org.apache.hadoop.hbase.ipc中的接口
-
- HBaseRpcControllerImpl - org.apache.hadoop.hbase.ipc中的类
-
Optionally carries Cells across the proxy/service interface down into ipc.
- HBaseRpcControllerImpl() - 类 的构造器org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- HBaseRpcControllerImpl(CellScanner) - 类 的构造器org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- HBaseRpcControllerImpl(List<CellScannable>) - 类 的构造器org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- HBaseRPCErrorHandler - org.apache.hadoop.hbase.ipc中的接口
-
An interface for calling out of RPC for error conditions.
- HBaseSaslRpcClient - org.apache.hadoop.hbase.security中的类
-
A utility class that encapsulates SASL logic for RPC client.
- HBaseSaslRpcClient(AuthMethod, Token<? extends TokenIdentifier>, String, boolean) - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
- HBaseSaslRpcClient(AuthMethod, Token<? extends TokenIdentifier>, String, boolean, String, boolean) - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
- HBaseSaslRpcServer - org.apache.hadoop.hbase.security中的类
-
A utility class that encapsulates SASL logic for RPC server.
- HBaseSaslRpcServer(AuthMethod, Map<String, String>, SecretManager<TokenIdentifier>) - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- HBaseSnapshotException - org.apache.hadoop.hbase.snapshot中的异常错误
-
General exception base class for when a snapshot fails
- HBaseSnapshotException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.HBaseSnapshotException
-
Some exception happened for a snapshot and don't even know the snapshot that it was about
- HBaseSnapshotException(String, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.HBaseSnapshotException
-
Exception for the given snapshot that has no previous root cause
- HBaseSnapshotException(String, Throwable, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.HBaseSnapshotException
-
Exception for the given snapshot due to another exception
- HBaseSnapshotException(String, Exception) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.HBaseSnapshotException
-
Exception when the description of the snapshot cannot be determined, due to some root other
root cause
- HBaseZeroCopyByteString - com.google.protobuf中的类
-
Helper class to extract byte arrays from ByteString without copy.
- HBCK_CODE_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- HBCK_SIDELINEDIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Used by HBCK to sideline backup data
- HColumnDescriptor - org.apache.hadoop.hbase中的类
-
已过时。
- HColumnDescriptor(String) - 类 的构造器org.apache.hadoop.hbase.HColumnDescriptor
-
- HColumnDescriptor(byte[]) - 类 的构造器org.apache.hadoop.hbase.HColumnDescriptor
-
- HColumnDescriptor(HColumnDescriptor) - 类 的构造器org.apache.hadoop.hbase.HColumnDescriptor
-
- HColumnDescriptor(HColumnDescriptor, boolean) - 类 的构造器org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- HColumnDescriptor(ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor) - 类 的构造器org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- HConstants - org.apache.hadoop.hbase中的类
-
HConstants holds a bunch of HBase-related constants
- HConstants.OperationStatusCode - org.apache.hadoop.hbase中的枚举
-
Status codes used for return values of bulk operations.
- HDFSBlocksDistribution - org.apache.hadoop.hbase中的类
-
Data structure to describe the distribution of HDFS blocks among hosts.
- HDFSBlocksDistribution() - 类 的构造器org.apache.hadoop.hbase.HDFSBlocksDistribution
-
Constructor
- HDFSBlocksDistribution.HostAndWeight - org.apache.hadoop.hbase中的类
-
Stores the hostname and weight for that hostname.
- HDFSBlocksDistribution.HostAndWeight.WeightComparator - org.apache.hadoop.hbase中的类
-
comparator used to sort hosts based on weight
- head(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a HEAD request
- head(Cluster, String, Header[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a HEAD request
- head(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- headerSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns the size of this block header.
- headerSize(boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Maps a minor version to the size of the header.
- headMap(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- headMap(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- headMap(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- headMap(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- headMap(K, boolean) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- headSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- headSet(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- headSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- headSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- HEALTH_CHORE_WAKE_FREQ - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HEALTH_FAILURE_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The maximum number of health check failures a server can encounter consecutively.
- HEALTH_SCRIPT_LOC - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Health script related settings.
- HEALTH_SCRIPT_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HealthCheckChore - org.apache.hadoop.hbase中的类
-
The Class HealthCheckChore for running health checker regularly.
- HealthCheckChore(int, Stoppable, Configuration) - 类 的构造器org.apache.hadoop.hbase.HealthCheckChore
-
- heap - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- heap - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- HEAP_OCCUPANCY_ERROR_VALUE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HEAP_OCCUPANCY_HIGH_WATERMARK_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HEAP_OCCUPANCY_LOW_WATERMARK_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HeapMemoryManager - org.apache.hadoop.hbase.regionserver中的类
-
Manages tuning of Heap memory using HeapMemoryTuner.
- HeapMemoryManager.HeapMemoryTuneObserver - org.apache.hadoop.hbase.regionserver中的接口
-
Every class that wants to observe heap memory tune actions must implement this interface.
- HeapMemoryManager.TunerContext - org.apache.hadoop.hbase.regionserver中的类
-
POJO to pass all the relevant information required to do the heap memory tuning.
- HeapMemoryManager.TunerResult - org.apache.hadoop.hbase.regionserver中的类
-
POJO which holds the result of memory tuning done by HeapMemoryTuner implementation.
- HeapMemoryTuner - org.apache.hadoop.hbase.regionserver中的接口
-
Makes the decision regarding proper sizing of the heap memory.
- heapSize() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
Implement HeapSize interface
- HeapSize - org.apache.hadoop.hbase.io中的接口
-
Implementations can be asked for an estimate of their size in bytes.
- heapSize() - 接口 中的方法org.apache.hadoop.hbase.io.HeapSize
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
Strings have two bytes per character due to default Java Unicode encoding
(hence length times 2).
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
HeapSize implementation
NOTE : The heapsize should be altered as and when new state variable are added
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
Total size of all elements in this queue.
- heapSize() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
HeapSize implementation
We do not count the bytes in the rowCache because it should be empty for a KeyValue in the
MemStore.
- heapSize() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.SizeCachedKeyValue
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- heapSizeChange(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- HEART_BEAT_SEQNO - 类 中的静态变量org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- heartbeat(long, int, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- HEARTBEAT_TIME_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.client.locking.EntityLock
-
- heartbeatMessage - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
Saves whether or not the most recent response from the server was a heartbeat message.
- heartbeatNoDetails(long) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- HEDGED_READ_WINS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- HEDGED_READ_WINS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- HEDGED_READS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- HEDGED_READS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- hedgedReadOps - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- hedgedReadWin - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- HelloHBase - org.apache.hbase.archetypes.exemplars.client中的类
-
Successful running of this application requires access to an active instance
of HBase.
- HelloHBase - org.apache.hbase.archetypes.exemplars.shaded_client中的类
-
Successful running of this application requires access to an active instance
of HBase.
- HexStringSplit() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter.HexStringSplit
-
- HFile - org.apache.hadoop.hbase.io.hfile中的类
-
File format for hbase.
- HFile() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFile
-
- HFile.CachingBlockReader - org.apache.hadoop.hbase.io.hfile中的接口
-
An abstraction used by the block index.
- HFile.FileInfo - org.apache.hadoop.hbase.io.hfile中的类
-
Metadata for this file.
- HFile.Reader - org.apache.hadoop.hbase.io.hfile中的接口
-
An interface used by clients to open and iterate an
HFile.
- HFile.Writer - org.apache.hadoop.hbase.io.hfile中的接口
-
API required to write an
HFile
- HFile.WriterFactory - org.apache.hadoop.hbase.io.hfile中的类
-
This variety of ways to construct writers is used throughout the code, and
we want to be able to swap writer implementations.
- HFILE_ARCHIVE_DIRECTORY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Directory under /hbase where archived hfiles are stored
- HFILE_BLOCK_CACHE_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HFILE_BLOCK_CACHE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for the size of the block cache
- HFILE_NAME_REGEX - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
A non-capture group, for hfiles, so that this can be embedded.
- HFileArchiveUtil - org.apache.hadoop.hbase.util中的类
-
Helper class for all utilities related to archival/retrieval of HFiles
- HFileBlock - org.apache.hadoop.hbase.io.hfile中的类
-
Cacheable Blocks of an
HFile version 2 file.
- HFileBlock(BlockType, int, int, long, ByteBuffer, boolean, long, int, int, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Creates a new
HFile block from the given fields.
- HFILEBLOCK_DUMMY_HEADER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Just an array of bytes of the right size.
- HFILEBLOCK_HEADER_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The size of a version 2 HFile block header, minor version 1.
- HFILEBLOCK_HEADER_SIZE_NO_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The size data structures with minor version is 0
- HFileBlockDecodingContext - org.apache.hadoop.hbase.io.encoding中的接口
-
A decoding context that is created by a reader's encoder, and is shared
across the reader's all read operations.
- HFileBlockDefaultDecodingContext - org.apache.hadoop.hbase.io.encoding中的类
-
- HFileBlockDefaultDecodingContext(HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultDecodingContext
-
- HFileBlockDefaultEncodingContext - org.apache.hadoop.hbase.io.encoding中的类
-
- HFileBlockDefaultEncodingContext(DataBlockEncoding, byte[], HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- HFileBlockEncodingContext - org.apache.hadoop.hbase.io.encoding中的接口
-
An encoding context that is created by a writer's encoder, and is shared
across the writer's whole lifetime.
- HFileBlockIndex - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileBlockIndex() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- HFileBlockIndex.BlockIndexWriter - org.apache.hadoop.hbase.io.hfile中的类
-
Writes the block index into the output stream.
- HFileContext - org.apache.hadoop.hbase.io.hfile中的类
-
This carries the information on some of the meta data about the HFile.
- HFileContext() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileContext
-
- HFileContext(HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileContext
-
Copy constructor
- hFileContext - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- HFileContextBuilder - org.apache.hadoop.hbase.io.hfile中的类
-
A builder that helps in building up the HFileContext
- HFileContextBuilder() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileContextBuilder
-
- HFileContextBuilder(HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileContextBuilder
-
Use this constructor if you want to change a few settings only in another context.
- HFileCorruptionChecker - org.apache.hadoop.hbase.util.hbck中的类
-
This class marches through all of the region's hfiles and verifies that
they are all valid files.
- HFileCorruptionChecker(Configuration, ExecutorService, boolean) - 类 的构造器org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- HFileDataBlockEncoder - org.apache.hadoop.hbase.io.hfile中的接口
-
Controls what kind of data block encoding is used.
- HFileDataBlockEncoderImpl - org.apache.hadoop.hbase.io.hfile中的类
-
Do different kinds of data block encoding according to column family
options.
- HFileDataBlockEncoderImpl(DataBlockEncoding) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
Do data block encoding with specified options.
- HFileFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.HFileFilter
-
- HFileInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Simple MR input format for HFiles.
- HFileInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HFileInputFormat
-
- HFileLink - org.apache.hadoop.hbase.io中的类
-
HFileLink describes a link to an hfile.
- HFileLink(Path, Path, Path, Path) - 类 的构造器org.apache.hadoop.hbase.io.HFileLink
-
Dead simple hfile link constructor
- HFileLinkFilter() - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.HFileLinkFilter
-
- HFileOutputFormat2 - org.apache.hadoop.hbase.mapreduce中的类
-
Writes HFiles.
- HFileOutputFormat2() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- HFilePrettyPrinter - org.apache.hadoop.hbase.io.hfile中的类
-
Implements pretty-printing functionality for
HFiles.
- HFilePrettyPrinter() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- HFilePrettyPrinter(Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- HFileReaderImpl - org.apache.hadoop.hbase.io.hfile中的类
-
Implementation that can handle all hfile versions of
HFile.Reader.
- HFileReaderImpl(Path, FixedFileTrailer, FSDataInputStreamWrapper, long, CacheConfig, HFileSystem, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
已过时。
- HFileReaderImpl(Path, FixedFileTrailer, FSDataInputStreamWrapper, long, CacheConfig, HFileSystem, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Opens a HFile.
- HFileReaderImpl.BlockIndexNotLoadedException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
- HFileReaderImpl.EncodedScanner - org.apache.hadoop.hbase.io.hfile中的类
-
Scanner that operates on encoded data blocks.
- HFileReaderImpl.HFileScannerImpl - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileReaderImpl.NotSeekedException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
An exception thrown when an operation requiring a scanner to be seeked
is invoked on a scanner that is not seeked.
- hfileRefsZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- HFileScanner - org.apache.hadoop.hbase.io.hfile中的接口
-
A scanner allows you to position yourself within a HFile and
scan through it.
- HFileScannerImpl(HFile.Reader, boolean, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- HFileWriterImpl - org.apache.hadoop.hbase.io.hfile中的类
-
Common functionality needed by all versions of
HFile writers.
- HFileWriterImpl(Configuration, CacheConfig, Path, FSDataOutputStream, CellComparator, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- HIDDEN_END_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RegionInfoDisplay
-
- HIDDEN_END_KEY - 类 中的静态变量org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- HIDDEN_START_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RegionInfoDisplay
-
- HIDDEN_START_KEY - 类 中的静态变量org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- HIGH_QOS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- higher(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- higherEntry(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- higherEntry(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- higherKey(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- higherKey(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- highestSyncedTxid - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
Updated to the transaction id of the last successful sync call.
- highestUnsyncedTxid - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
The highest known outstanding unsync'd WALEdit transaction id.
- hint - 类 中的变量org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- hit(boolean, boolean, BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- HMaster - org.apache.hadoop.hbase.master中的类
-
HMaster is the "master server" for HBase.
- HMaster(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.HMaster
-
Initializes the HMaster.
- HMaster.MasterStoppedException - org.apache.hadoop.hbase.master中的异常错误
-
- HMaster.RedirectServlet - org.apache.hadoop.hbase.master中的类
-
- HMaster.TableDescriptorGetter - org.apache.hadoop.hbase.master中的接口
-
Implement to return TableDescriptor after pre-checks
- HMasterCommandLine - org.apache.hadoop.hbase.master中的类
-
- HMasterCommandLine(Class<? extends HMaster>) - 类 的构造器org.apache.hadoop.hbase.master.HMasterCommandLine
-
- HMasterCommandLine.LocalHMaster - org.apache.hadoop.hbase.master中的类
-
- hMemManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- HMobStore - org.apache.hadoop.hbase.regionserver中的类
-
The store implementation to save MOBs (medium objects), it extends the HStore.
- HMobStore(HRegion, ColumnFamilyDescriptor, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HMobStore
-
- HostAndWeight(String, long) - 类 的构造器org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
Constructor
- hostName(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
Set the hostname of the http server.
- HOSTNAME_PORT_SEPARATOR - 类 中的静态变量org.apache.hadoop.hbase.util.Addressing
-
- HOUR_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HQuorumPeer - org.apache.hadoop.hbase.zookeeper中的类
-
HBase's version of ZooKeeper's QuorumPeer.
- HRegion - org.apache.hadoop.hbase.regionserver中的类
-
Regions store data for a certain region of a table.
- HRegion(Path, WAL, FileSystem, Configuration, RegionInfo, TableDescriptor, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion
-
- HRegion(HRegionFileSystem, WAL, Configuration, TableDescriptor, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion
-
HRegion constructor.
- HRegion.BulkLoadListener - org.apache.hadoop.hbase.regionserver中的接口
-
Listener class to enable callers of
bulkLoadHFile() to perform any necessary
pre/post processing of a given bulkload call
- HRegion.FlushResult - org.apache.hadoop.hbase.regionserver中的接口
-
- HRegion.FlushResult.Result - org.apache.hadoop.hbase.regionserver中的枚举
-
- HRegion.FlushResultImpl - org.apache.hadoop.hbase.regionserver中的类
-
Objects from this class are created when flushing to describe all the different states that
that method ends up in.
- HRegion.RowLockImpl - org.apache.hadoop.hbase.regionserver中的类
-
Class used to represent a lock on a row.
- HREGION_COLUMNFAMILY_FLUSH_SIZE_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- HREGION_COLUMNFAMILY_FLUSH_SIZE_LOWER_BOUND_MIN - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- HREGION_COMPACTIONDIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Used to construct the name of the compaction directory during compaction
- HREGION_EDITS_REPLAY_SKIP_ERRORS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- HREGION_LOGDIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Used to construct the name of the log directory for a region server
- HREGION_MAX_FILESIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Conf key for the max file size after which we split the region
- HREGION_MEMSTORE_BLOCK_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Block updates if memstore has hbase.hregion.memstore.block.multiplier
times hbase.hregion.memstore.flush.size bytes.
- HREGION_MEMSTORE_FLUSH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Conf key for the memstore size at which we flush the memstore
- HREGION_OLDLOGDIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Like the previous, but for old logs that are about to be deleted
- HRegionFileSystem - org.apache.hadoop.hbase.regionserver中的类
-
View to an on-disk Region.
- HRegionInfo - org.apache.hadoop.hbase中的类
-
- HRegionInfo(long, TableName, int) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- HRegionInfo(TableName) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- HRegionInfo(TableName, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Construct HRegionInfo with explicit parameters
- HRegionInfo(TableName, byte[], byte[], boolean) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Construct HRegionInfo with explicit parameters
- HRegionInfo(TableName, byte[], byte[], boolean, long) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Construct HRegionInfo with explicit parameters
- HRegionInfo(TableName, byte[], byte[], boolean, long, int) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Construct HRegionInfo with explicit parameters
- HRegionInfo(RegionInfo) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
Costruct a copy of another HRegionInfo
- HRegionInfo(HRegionInfo, int) - 类 的构造器org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- HRegionLocation - org.apache.hadoop.hbase中的类
-
Data structure to hold RegionInfo and the address for the hosting
HRegionServer.
- HRegionLocation(RegionInfo, ServerName) - 类 的构造器org.apache.hadoop.hbase.HRegionLocation
-
- HRegionLocation(RegionInfo, ServerName, long) - 类 的构造器org.apache.hadoop.hbase.HRegionLocation
-
- HRegionLocator - org.apache.hadoop.hbase.client中的类
-
- HRegionLocator(TableName, ClusterConnection) - 类 的构造器org.apache.hadoop.hbase.client.HRegionLocator
-
- HRegionMetricsWrapperRunnable() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable
-
- HRegionPartitioner<K2,V2> - org.apache.hadoop.hbase.mapred中的类
-
This is used to partition the output keys into groups of keys.
- HRegionPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- HRegionPartitioner<KEY,VALUE> - org.apache.hadoop.hbase.mapreduce中的类
-
This is used to partition the output keys into groups of keys.
- HRegionPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
- HRegionServer - org.apache.hadoop.hbase.regionserver中的类
-
HRegionServer makes a set of HRegions available to clients.
- HRegionServer(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegionServer
-
Starts a HRegionServer at the default location
- HRegionServer.MovedRegionsCleaner - org.apache.hadoop.hbase.regionserver中的类
-
Creates a Chore thread to clean the moved region cache.
- HRegionServerCommandLine - org.apache.hadoop.hbase.regionserver中的类
-
Class responsible for parsing the command line and starting the
RegionServer.
- HRegionServerCommandLine(Class<? extends HRegionServer>) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- HStore - org.apache.hadoop.hbase.regionserver中的类
-
A Store holds a column family in a Region.
- HStore(HRegion, ColumnFamilyDescriptor, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HStore
-
Constructor
- HSTORE_OPEN_AND_CLOSE_THREADS_MAX - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The max number of threads used for opening and closing stores or store
files in parallel
- HStoreFile - org.apache.hadoop.hbase.regionserver中的类
-
A Store data file.
- HStoreFile(FileSystem, Path, Configuration, CacheConfig, BloomType, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.HStoreFile
-
Constructor, loads a reader and it's indices, etc.
- HStoreFile(FileSystem, StoreFileInfo, Configuration, CacheConfig, BloomType, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.HStoreFile
-
Constructor, loads a reader and it's indices, etc.
- HTable - org.apache.hadoop.hbase.client中的类
-
An implementation of
Table.
- HTable(ClusterConnection, TableBuilderBase, RpcRetryingCallerFactory, RpcControllerFactory, ExecutorService) - 类 的构造器org.apache.hadoop.hbase.client.HTable
-
Creates an object to access a HBase table.
- HTableDescriptor - org.apache.hadoop.hbase中的类
-
- HTableDescriptor(TableName) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Construct a table descriptor specifying a TableName object
- HTableDescriptor(HTableDescriptor) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Construct a table descriptor by cloning the descriptor passed as a parameter.
- HTableDescriptor(HTableDescriptor, boolean) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- HTableDescriptor(TableDescriptor) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- HTableDescriptor(TableName, HTableDescriptor) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Construct a table descriptor by cloning the descriptor passed as a parameter
but using a different table name.
- HTableDescriptor(TableDescriptorBuilder.ModifyableTableDescriptor) - 类 的构造器org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- HTableMultiplexer - org.apache.hadoop.hbase.client中的类
-
HTableMultiplexer provides a thread-safe non blocking PUT API across all the tables.
- HTableMultiplexer(Configuration, int) - 类 的构造器org.apache.hadoop.hbase.client.HTableMultiplexer
-
- HTableMultiplexer(Connection, Configuration, int) - 类 的构造器org.apache.hadoop.hbase.client.HTableMultiplexer
-
- HTableMultiplexer.HTableMultiplexerStatus - org.apache.hadoop.hbase.client中的类
-
HTableMultiplexerStatus keeps track of the current status of the HTableMultiplexer.
- HTableMultiplexerStatus(Map<HRegionLocation, HTableMultiplexer.FlushWorker>) - 类 的构造器org.apache.hadoop.hbase.client.HTableMultiplexer.HTableMultiplexerStatus
-
- HtmlQuoting - org.apache.hadoop.hbase.http中的类
-
This class is responsible for quoting HTML characters.
- HTTP_AUTHENTICATION_SIGNATURE_SECRET_FILE_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_KEYTAB_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_KRB_NAME_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_PRINCIPAL_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_UI_AUTHENTICATION - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HttpConfig - org.apache.hadoop.hbase.http中的类
-
Statics to get access to Http related configuration.
- HttpConfig(Configuration) - 类 的构造器org.apache.hadoop.hbase.http.HttpConfig
-
- HttpConfig.Policy - org.apache.hadoop.hbase.http中的枚举
-
- HttpProxyExample - org.apache.hadoop.hbase.client.example中的类
-
A simple example on how to use
AsyncTable to write a fully
asynchronous HTTP proxy server.
- HttpProxyExample(Configuration, int) - 类 的构造器org.apache.hadoop.hbase.client.example.HttpProxyExample
-
- HttpRequestLog - org.apache.hadoop.hbase.http中的类
-
RequestLog object for use with Http
- HttpRequestLogAppender - org.apache.hadoop.hbase.http中的类
-
Log4j Appender adapter for HttpRequestLog
- HttpRequestLogAppender() - 类 的构造器org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- HttpServer - org.apache.hadoop.hbase.http中的类
-
Create a Jetty embedded server to answer http requests.
- HttpServer(String, String, int, boolean) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, String[]) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, AccessControlList) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, AccessControlList, String[]) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer.Builder - org.apache.hadoop.hbase.http中的类
-
Class to construct instances of HTTP server with specific options.
- HttpServer.QuotingInputFilter - org.apache.hadoop.hbase.http中的类
-
A Servlet input filter that quotes all HTML active characters in the
parameter names and values.
- HttpServer.QuotingInputFilter.RequestQuoter - org.apache.hadoop.hbase.http中的类
-
- HttpServer.StackServlet - org.apache.hadoop.hbase.http中的类
-
A very simple servlet to serve up a text representation of the current
stack traces.
- HttpServerUtil - org.apache.hadoop.hbase.http中的类
-
HttpServer utility.
- humanReadableTimestamp(long) - 类 中的静态方法org.apache.hadoop.hbase.KeyValue
-
- I - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'I'
- id - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- ID_ATRIBUTE - 类 中的静态变量org.apache.hadoop.hbase.client.OperationWithAttributes
-
- ID_SIZE - 枚举 中的静态变量org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
- idealMaxKeys(long, double) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
The maximum number of keys we can put into a Bloom filter of a certain
size to maintain the given error rate, assuming the number of hash
functions is chosen optimally and does not even have to be an integer
(hence the "ideal" in the function name).
- IdentityTableMap - org.apache.hadoop.hbase.mapred中的类
-
Pass the given key and record as-is to reduce
- IdentityTableMap() - 类 的构造器org.apache.hadoop.hbase.mapred.IdentityTableMap
-
constructor
- IdentityTableMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Pass the given key and record as-is to the reduce phase.
- IdentityTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
- IdentityTableReduce - org.apache.hadoop.hbase.mapred中的类
-
Write to table each key, record pair
- IdentityTableReduce() - 类 的构造器org.apache.hadoop.hbase.mapred.IdentityTableReduce
-
- IdentityTableReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Convenience class that simply writes all values (which must be
Put or
Delete instances)
passed to it out to the configured HBase table.
- IdentityTableReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IdentityTableReducer
-
- IDLE_TIME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- IdLock - org.apache.hadoop.hbase.util中的类
-
Allows multiple concurrent clients to lock on a numeric id with a minimal
memory overhead.
- IdLock() - 类 的构造器org.apache.hadoop.hbase.util.IdLock
-
- IdLock.Entry - org.apache.hadoop.hbase.util中的类
-
An entry returned to the client as a lock object
- IdReadWriteLock - org.apache.hadoop.hbase.util中的类
-
Allows multiple concurrent clients to lock on a numeric id with ReentrantReadWriteLock.
- IdReadWriteLock() - 类 的构造器org.apache.hadoop.hbase.util.IdReadWriteLock
-
- IdReadWriteLock(IdReadWriteLock.ReferenceType) - 类 的构造器org.apache.hadoop.hbase.util.IdReadWriteLock
-
Constructor of IdReadWriteLock
- IdReadWriteLock.ReferenceType - org.apache.hadoop.hbase.util中的枚举
-
- idx - 类 中的变量org.apache.hadoop.hbase.types.StructIterator
-
- ifEquals(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
Check for equality.
- ifEquals(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
Check for equality.
- ifMatches(CompareOperator, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
- ifMatches(CompareOperator, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
- ifNotExists() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
Check for lack of column.
- ifNotExists() - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
Check for lack of column.
- IGNORE_MISSING_FILES - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- ignoreZKDeleteForTesting - 类 中的变量org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- IllegalArgumentIOException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Exception thrown when an illegal argument is passed to a function/procedure.
- IllegalArgumentIOException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.IllegalArgumentIOException
-
- IllegalArgumentIOException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.IllegalArgumentIOException
-
- IllegalArgumentIOException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.IllegalArgumentIOException
-
- IllegalArgumentIOException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.IllegalArgumentIOException
-
- ImmutableByteArray - org.apache.hadoop.hbase.util中的类
-
Mainly used as keys for HashMap.
- ImmutableBytesWritable - org.apache.hadoop.hbase.io中的类
-
A byte sequence that is usable as a key or value.
- ImmutableBytesWritable() - 类 的构造器org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Create a zero-size sequence.
- ImmutableBytesWritable(byte[]) - 类 的构造器org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Create a ImmutableBytesWritable using the byte array as the initial value.
- ImmutableBytesWritable(ImmutableBytesWritable) - 类 的构造器org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Set the new ImmutableBytesWritable to the contents of the passed
ibw.
- ImmutableBytesWritable(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
Set the value to a given byte range
- ImmutableBytesWritable.Comparator - org.apache.hadoop.hbase.io中的类
-
A Comparator optimized for ImmutableBytesWritable.
- ImmutableHColumnDescriptor - org.apache.hadoop.hbase.client中的类
-
已过时。
- ImmutableHColumnDescriptor(ColumnFamilyDescriptor) - 类 的构造器org.apache.hadoop.hbase.client.ImmutableHColumnDescriptor
-
已过时。
- ImmutableHRegionInfo - org.apache.hadoop.hbase.client中的类
-
已过时。
- ImmutableHRegionInfo(RegionInfo) - 类 的构造器org.apache.hadoop.hbase.client.ImmutableHRegionInfo
-
已过时。
- ImmutableHTableDescriptor - org.apache.hadoop.hbase.client中的类
-
已过时。
- ImmutableHTableDescriptor(HTableDescriptor) - 类 的构造器org.apache.hadoop.hbase.client.ImmutableHTableDescriptor
-
已过时。
- ImmutableHTableDescriptor(TableDescriptor) - 类 的构造器org.apache.hadoop.hbase.client.ImmutableHTableDescriptor
-
已过时。
- ImmutableMemStoreLAB - org.apache.hadoop.hbase.regionserver中的类
-
A MemStoreLAB implementation which wraps N MemStoreLABs.
- ImmutableMemStoreLAB(List<MemStoreLAB>) - 类 的构造器org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- ImmutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
ImmutableSegment is an abstract class that extends the API supported by a
Segment,
and is not needed for a
MutableSegment.
- ImmutableSegment(CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
------------------------------------------------------------------------
Empty C-tor to be used only for CompositeImmutableSegment
- ImmutableSegment(CellComparator, List<ImmutableSegment>) - 类 的构造器org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- ImmutableSegment(CellSet, CellComparator, MemStoreLAB) - 类 的构造器org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
------------------------------------------------------------------------
C-tor to be used to build the derived classes
- ImmutableSegment(Segment) - 类 的构造器org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
------------------------------------------------------------------------
Copy C-tor to be used when new CSLMImmutableSegment (derived) is being built from a Mutable one.
- impl - 类 中的变量org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
The coprocessor
- implClassName - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
The class name of the runtime implementation, used as prefix for logging/tracing.
- implementationClassName(String) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
Specify a BufferedMutator implementation other than the default.
- Import - org.apache.hadoop.hbase.mapreduce中的类
-
Import data written by
Export.
- Import() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import
-
- Import.CellImporter - org.apache.hadoop.hbase.mapreduce中的类
-
A mapper that just writes out KeyValues.
- Import.CellReducer - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.CellSortImporter - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.CellWritableComparable - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.CellWritableComparable.CellWritableComparator - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.CellWritableComparablePartitioner - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.Importer - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to files in hdfs.
- Import.KeyValueImporter - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueReducer - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueSortImporter - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparable - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparable.KeyValueWritableComparator - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparablePartitioner - org.apache.hadoop.hbase.mapreduce中的类
-
- IMPORT_FORMAT_VER - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- Importer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- ImportTsv - org.apache.hadoop.hbase.mapreduce中的类
-
Tool to import data from a TSV file.
- ImportTsv() - 类 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- ImportTsv.TsvParser - org.apache.hadoop.hbase.mapreduce中的类
-
- ImportTsv.TsvParser.BadTsvLineException - org.apache.hadoop.hbase.mapreduce中的异常错误
-
- IN_MEMORY - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- IN_MEMORY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- IN_MEMORY_COMPACTION - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- IN_MEMORY_COMPACTION - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- IN_MEMORY_FLUSH_THRESHOLD_FACTOR_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- INC_BLOCKCACHE_TUNING_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- INC_BLOCKCACHE_TUNING_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- INC_MEMSTORE_TUNING_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- INC_MEMSTORE_TUNING_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- incarnation - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- incGlobalMemStoreSize(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- incInfoThresholdExceeded(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incInfoThresholdExceeded(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- IncludeAllCompactionQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
A compaction query matcher that always return INCLUDE and drops nothing.
- IncludeAllCompactionQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.IncludeAllCompactionQueryMatcher
-
- includeRegionInSplit(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Test if the given region is to be included in the InputSplit while
splitting the regions of a table.
- includeRegionInSplit(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Test if the given region is to be included in the InputSplit while splitting
the regions of a table.
- includesMvcc() - 类 中的方法org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder.AbstractEncodedSeeker
-
- includesTags() - 类 中的方法org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder.AbstractEncodedSeeker
-
- includeStartRow() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- includesTimeRange(TimeRange) - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
Check if the range has any overlap with TimeRange
- includesTimeRange(TimeRange) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Check if the range has ANY overlap with TimeRange
- includeStopRow() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- includeTable(TableName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- includeTimestamp(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Update the current TimestampRange to include the timestamp from cell.
- InclusiveCombinedBlockCache - org.apache.hadoop.hbase.io.hfile中的类
-
- InclusiveCombinedBlockCache(LruBlockCache, BlockCache) - 类 的构造器org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- InclusiveStopFilter - org.apache.hadoop.hbase.filter中的类
-
A Filter that stops after the given row.
- InclusiveStopFilter(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- incMemStoreSize(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
Updates the heap size counter of the segment by the given delta
- incMemStoreSize(long, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- incMemStoreSize(MemStoreSize) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSizing
-
- incMemStoreSize(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- IncompatibleFilterException - org.apache.hadoop.hbase.filter中的异常错误
-
Used to indicate a filter incompatibility
- IncompatibleFilterException() - 异常错误 的构造器org.apache.hadoop.hbase.filter.IncompatibleFilterException
-
constructor
- IncompatibleFilterException(String) - 异常错误 的构造器org.apache.hadoop.hbase.filter.IncompatibleFilterException
-
constructor
- incrCacheDroppingExceptions(Object) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
- incrDelayRunners() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of delay runner counts.
- incrDelayRunners() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.RunnerStats
-
- increaseAboveHeapOccupancyLowWatermarkCounter() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
Increase the counter for heap occupancy percent above low watermark
- increaseAboveHeapOccupancyLowWatermarkCounter() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
Increase the counter for heap occupancy percent above low watermark
- increaseAboveHeapOccupancyLowWatermarkCounter() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- increaseTunerDoNothingCounter() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
Increase the counter for tuner neither expanding memstore global size limit nor expanding
blockcache max size.
- increaseTunerDoNothingCounter() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
Increase the counter for tuner neither expanding memstore global size limit nor expanding
blockcache max size.
- increaseTunerDoNothingCounter() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- IncreasingToUpperBoundRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
Split size is the number of regions that are on this server that all are
of the same table, cubed, times 2x the region flush size OR the maximum
region split size, whichever is smaller.
- IncreasingToUpperBoundRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- increment(Increment) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Increments one or more columns within a single row.
- increment(Increment) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- Increment - org.apache.hadoop.hbase.client中的类
-
Used to perform Increment operations on a single row.
- Increment(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Increment
-
Create a Increment operation for the specified row.
- Increment(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.client.Increment
-
Create a Increment operation for the specified row.
- Increment(Increment) - 类 的构造器org.apache.hadoop.hbase.client.Increment
-
Copy constructor
- Increment(byte[], long, NavigableMap<byte[], List<Cell>>) - 类 的构造器org.apache.hadoop.hbase.client.Increment
-
Construct the Increment with user defined data.
- increment(Increment) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Increments one or more columns within a single row.
- increment(S) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- increment(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- increment(Increment, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- increment(Increment) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform one or more increment operations on a row.
- increment(Increment) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- increment() - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- INCREMENT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- INCREMENT_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- incrementAppendCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Increment the count of wal appends
- incrementAppendCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementAppendSize(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Add the append size.
- incrementAppendSize(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementAppendTime(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Add the time it took to append.
- incrementAppendTime(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementAuthFailedCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to AUTHFAILED Exception.
- incrementAuthFailedCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- incrementBytes(byte[], long) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Bytewise binary increment/deincrement of long contained in byte array
on given amount.
- incrementColumnValue(byte[], byte[], byte[], long) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
- incrementColumnValue(byte[], byte[], byte[], long, Durability) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Atomically increments a column value.
- incrementColumnValue(byte[], byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- incrementColumnValue(byte[], byte[], byte[], long, Durability) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- incrementColumnValue(byte[], byte[], byte[], long) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- incrementColumnValue(byte[], byte[], byte[], long, Durability) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Atomically increments a column value.
- incrementColumnValue(byte[], byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- incrementColumnValue(byte[], byte[], byte[], long, Durability) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- incrementCompactionsQueuedCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- incrementConnectionLossCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to a CONNECTIONLOSS Exception.
- incrementConnectionLossCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementDataInconsistencyCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to a DATAINCONSISTENCY Exception.
- incrementDataInconsistencyCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementFailedAppendRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedAppendRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number failed append requests.
- incrementFailedAppendRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFailedDeleteRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedDeleteRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of failed Delete requests.
- incrementFailedDeleteRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFailedGetRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedGetRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of failed Get requests.
- incrementFailedGetRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFailedIncrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedIncrementRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number failed increment requests.
- incrementFailedIncrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFailedPutRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedPutRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of failed Put Requests.
- incrementFailedPutRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFailedScanRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementFailedScanRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number failed scan requests.
- incrementFailedScanRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementFlushesQueuedCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- IncrementingEnvironmentEdge - org.apache.hadoop.hbase.util中的类
-
Uses an incrementing algorithm instead of the default.
- IncrementingEnvironmentEdge() - 类 的构造器org.apache.hadoop.hbase.util.IncrementingEnvironmentEdge
-
Construct an incremental edge starting from currentTimeMillis
- IncrementingEnvironmentEdge(long) - 类 的构造器org.apache.hadoop.hbase.util.IncrementingEnvironmentEdge
-
Construct an incremental edge with an initial amount
- incrementInvalidACLCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to INVALIDACL Exception.
- incrementInvalidACLCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementIv(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
- incrementIv(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
- incrementLogRollRequested() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- incrementLogRollRequested() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementLowReplicationLogRoll() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- incrementLowReplicationLogRoll() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementNoAuthCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to NOAUTH Exception.
- incrementNoAuthCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementNumOfDeletes() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- incrementNumOfPuts() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- incrementOperationCounter() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- incrementOperationCounter() - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
TODO: Remove.
- incrementOperationCounter() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- incrementOperationTimeoutCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to an OPERATIONTIMEOUT Exception.
- incrementOperationTimeoutCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementQuotaObserverTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the execution time of a period of the QuotaObserverChore.
- incrementRequests(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- incrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of requests
- incrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementResponseBlockSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- incrementResponseCellSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Add on the given amount to the retained cell size.
- incrementResponseExceptionSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- incrementRuntimeInconsistencyCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to RUNTIMEINCONSISTENCY Exception.
- incrementRuntimeInconsistencyCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementSessionExpiredCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to a SESSIONEXPIRED Exception.
- incrementSessionExpiredCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementSlowAppendCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Increment the number of appends that were slow
- incrementSlowAppendCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementSnapshotFetchTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the execution time to fetch the mapping of snapshots to originating table.
- incrementSnapshotObserverChoreTime(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
Updates the metric tracking the amount of time taken by the SnapshotQuotaObserverChore
which runs periodically.
- incrementSnapshotObserverChoreTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- incrementSnapshotObserverSnapshotComputationTime(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
Updates the metric tracking the amount of time taken by the SnapshotQuotaObserverChore
to compute the size of one snapshot, relative to the files referenced by the originating table.
- incrementSnapshotObserverSnapshotComputationTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- incrementSnapshotObserverSnapshotFetchTime(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
Updates the metric tracking the amount of time taken by the SnapshotQuotaObserverChore
to fetch all snapshots.
- incrementSnapshotObserverSnapshotFetchTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- incrementSnapshotObserverTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the execution time of a period of the SnapshotQuotaObserverChore.
- incrementSnapshotSizeComputationTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the execution time to compute the size of a single snapshot.
- incrementSpaceQuotaFileSystemScannerChoreTime(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
Updates the metric tracking how much time was spent scanning the filesystem to compute
the size of each region hosted by this RegionServer.
- incrementSpaceQuotaObserverChoreTime(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
Updates the metric tracking the amount of time taken by the QuotaObserverChore
which runs periodically.
- incrementSpaceQuotaObserverChoreTime(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- incrementSpaceQuotaRefresherChoreTime(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
Updates the metric tracking how much time was spent updating the RegionServer with the
latest information on space quotas from the hbase:quota table.
- incrementSucessfulAppendRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulAppendRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful append requests.
- incrementSucessfulAppendRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSucessfulDeleteRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulDeleteRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful Delete requests.
- incrementSucessfulDeleteRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSucessfulGetRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulGetRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful Get requests.
- incrementSucessfulGetRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSucessfulIncrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulIncrementRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful increment requests.
- incrementSucessfulIncrementRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSucessfulPutRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulPutRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful Put requests.
- incrementSucessfulPutRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSucessfulScanRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsREST
-
- incrementSucessfulScanRequests(int) - 接口 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSource
-
Increment the number of successful scan requests.
- incrementSucessfulScanRequests(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- incrementSyncTime(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Add the time it took to sync the wal.
- incrementSyncTime(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incrementSystemErrorCount() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Increment the count of failed ops due to a SYSTEMERROR Exception.
- incrementSystemErrorCount() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementTime(long) - 类 中的方法org.apache.hadoop.hbase.util.IncrementingEnvironmentEdge
-
Increment the time by the given amount
- incrementTotalFailedZKCalls() - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Record the total number of failed ZooKeeper API calls.
- incrementTotalFailedZKCalls() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- incrementTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- incrementWrittenBytes(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- incrementWrittenBytes(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- incRequests(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsMasterSource
-
Increment the number of requests the cluster has seen.
- incRequests(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- incrHedgedReadOps() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of hedged read that have occurred.
- incrHedgedReadWin() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of hedged read returned faster than the original read.
- incrMetaCacheHit() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of meta cache hits.
- incrMetaCacheMiss() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of meta cache misses.
- incrMetaCacheNumClearRegion() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of meta cache drops requested for individual region.
- incrMetaCacheNumClearServer() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of meta cache drops requested for entire RegionServer.
- incrNormalRunners() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
Increment the number of normal runner counts.
- incrNormalRunners() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.RunnerStats
-
- incrSlowAppend() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment the number of slow Appends that have happened.
- incrSlowAppend() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSlowDelete() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment the number of slow Deletes that have happened.
- incrSlowDelete() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSlowGet() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment the number of slow Gets that have happened.
- incrSlowGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSlowIncrement() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment the number of slow Increments that have happened.
- incrSlowIncrement() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSlowPut() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment the number of slow Puts that have happened.
- incrSlowPut() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSplitRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- incrSplitRequest() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment number of a requested splits
- incrSplitRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incrSplitSuccess() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- incrSplitSuccess() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Increment number of successful splits
- incrSplitSuccess() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- incScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- incScannerCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Called when opening a scanner on the data of this MemStoreLAB
- incScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
Called when opening a scanner on the data of this MemStoreLAB
- incScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- incTaskCounters(Collection<byte[]>, ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.RequestController
-
Increment the counter if we build a valid task.
- incValue(long) - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- incWarnThresholdExceeded(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- incWarnThresholdExceeded(int) - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- INDEX_CHUNK_PERCENTAGE_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- INDEX_CHUNK_PERCENTAGE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- INDEX_CHUNK_UNUSED_SPACE_PRECENTAGE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- INDEX_COLUMN - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
the column family containing the indexed row key
- INDEX_KEY_MAGIC - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Used as a magic return value while optimized index key feature enabled(HBASE-7845)
- INDEX_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
the qualifier containing the indexed row key
- IndexBuilder - org.apache.hadoop.hbase.mapreduce中的类
-
Example map/reduce job to construct index tables that can be used to quickly
find a row based on the value of a column.
- IndexBuilder() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
- IndexBuilder.Map - org.apache.hadoop.hbase.mapreduce中的类
-
Internal Mapper to be run by Hadoop.
- indexEntryOffHeapSize(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- indexEntryOffHeapSize(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- indexEntryOnHeapSize(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- indexEntryOnHeapSize(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellArrayImmutableSegment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellChunkImmutableSegment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CSLMImmutableSegment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MutableSegment
-
- indexEntrySize() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- indexOf(byte[], byte) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Returns the index of the first appearance of the value target in
array.
- indexOf(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Returns the start position of the first occurrence of the specified target within array, or -1 if there is no such occurrence.
- indexOf(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- indexSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- indexSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- indexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- indexWithinComponent - 类 中的变量org.apache.hadoop.hbase.util.ConcatenatedLists.Iterator
-
- IndividualBytesFieldCell - org.apache.hadoop.hbase中的类
-
- IndividualBytesFieldCell(byte[], byte[], byte[], long, KeyValue.Type, byte[]) - 类 的构造器org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- IndividualBytesFieldCell(byte[], byte[], byte[], long, KeyValue.Type, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- IndividualBytesFieldCell(byte[], int, int, byte[], int, int, byte[], int, int, long, KeyValue.Type, long, byte[], int, int, byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- INFO_THRESHOLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- InfoServer - org.apache.hadoop.hbase.http中的类
-
Create a Jetty embedded server to answer http requests.
- InfoServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.http.InfoServer
-
Create a status server on the given port.
- infoServer - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- INFRASTRUCTURE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.Tag
-
- init() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Support method to init constants such as timeout.
- init(RegionServerServices, Configuration, SplitLogWorker.TaskExecutor, SplitLogWorker) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Initialize internal values.
- init() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- init(RegionServerServices, Configuration, SplitLogWorker.TaskExecutor, SplitLogWorker) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter
-
- init() - 类 中的方法org.apache.hadoop.hbase.http.jmx.JMXJsonServlet
-
Initialize this servlet.
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.NoCacheFilter
-
- init() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- init() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- init(String) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.KeyProvider
-
Initialize the key provider
- init(String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- init(int) - 接口 中的方法org.apache.hadoop.hbase.io.util.Dictionary
-
- init(int) - 类 中的方法org.apache.hadoop.hbase.io.util.LRUDictionary
-
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Does some quick initialization.
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- init() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
Build the scanner.
- init() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
Build the scanner.
- init() - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- init() - 接口 中的方法org.apache.hadoop.hbase.mapreduce.VisibilityExpressionResolver
-
Giving a chance for the initialization.
- init() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- init() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterFilesystemSourceImpl
-
- init() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterProcSourceImpl
-
- init() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- init() - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshotSourceImpl
-
- init(StoreScanner, AbstractMultiFileWriter.WriterFactory) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Initializes multi-writer before usage.
- init() - 类 中的方法org.apache.hadoop.hbase.regionserver.Chunk
-
Actually claim the memory for this chunk.
- init(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- init(FileSystem, Path, Configuration, boolean, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- init(FileSystem, Path, Configuration, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- init(FileSystem, Path, Configuration, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- init(ReplicationEndpoint.Context) - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- init(ReplicationEndpoint.Context) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Initialize the replication endpoint with the given context.
- init() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- init() - 类 中的方法org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- init(Configuration, ServiceAuthorizationManager) - 类 中的静态方法org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- init(WALFactory, Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- init(FileSystem, Path, Configuration, FSDataInputStream) - 接口 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider.Reader
-
- init(FileSystem, Path, Configuration, boolean, long) - 接口 中的方法org.apache.hadoop.hbase.wal.AsyncFSWALProvider.AsyncWriter
-
- init(Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.BoundedGroupingStrategy
-
- init(FileSystem, Path, Configuration, boolean, long) - 接口 中的方法org.apache.hadoop.hbase.wal.FSHLogProvider.Writer
-
- init(Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.NamespaceGroupingStrategy
-
- init(WALFactory, Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- init(Configuration, String) - 接口 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider.RegionGroupingStrategy
-
- init(byte[], TableName, long, long, List<UUID>, long, long, MultiVersionConcurrencyControl, NavigableMap<byte[], Integer>) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- init(WALFactory, Configuration, String) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Set up the provider to create wals. will only be called once per instance.
- initAfterCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initAfterCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the compression after the shared stuff has been initialized.
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the compression after the shared stuff has been initialized.
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- initAfterHeader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- initAfterHeader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureAsyncProtobufLogWriter
-
- initAfterHeader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- initCache() - 类 中的方法org.apache.hadoop.hbase.client.ClientAsyncPrefetchScanner
-
- initCache() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- initCellFilters() - 类 中的方法org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- initClusterSchemaService() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- initCredentials(JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- initCredentials(Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- initCredentialsForCluster(Job, String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- initCredentialsForCluster(Job, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Obtain an authentication token, for the specified cluster, on behalf of the current user
and add it to the credentials for the given map reduce job.
- initCryptoCipher(RPCProtos.CryptoCipherMeta, Configuration) - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.FilterInitializer
-
Initialize a Filter to a FilterContainer.
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter
-
- INITIAL_MAX_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.io.TimeRange
-
- INITIAL_MIN_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.io.TimeRange
-
- INITIAL_STRIPE_COUNT_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The initial stripe count to create.
- initialChore() - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- initialChore() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
Override to run a task before we start looping.
- initialize(P) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
This method should initialize any field(s) of the ColumnInterpreter with
a parsing of the passed message bytes (used on the server side).
- initialize() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- initialize() - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- initialize(SnapshotOfRegionAssignmentFromMeta) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- initialize(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormat
-
- initialize(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Handle subclass specific set up.
- initialize(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- initialize(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Handle subclass specific set up.
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Initializes the reader.
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Build the scanner.
- initialize(TableSnapshotInputFormatImpl.InputSplit, Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- initialize() - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Initialize the load balancer.
- initialize() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Initialize the region assignment snapshot by scanning the hbase:meta table
- initialize(RegionServerServices, TableName, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- initialize(Connection) - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifier
-
Initializes the notifier.
- initialize(RegionServerServices, TableName, SpaceQuotaSnapshot) - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
Initializes this policy instance.
- initialize(Connection) - 类 中的方法org.apache.hadoop.hbase.quotas.TableSpaceQuotaSnapshotNotifier
-
- initialize(int, boolean, long, float, float, HeapMemoryManager) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ChunkCreator
-
Initializes the instance of ChunkCreator
- initialize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- initialize(Server, FileSystem, Path, Path, WALProvider) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Initializes the replication service object.
- initialize(S) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
This method should initialize any field(s) of the RowProcessor with
a parsing of the passed message bytes (used on the server side).
- initialize() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- initialize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.Superusers
-
Should be called only once to pre-load list of super users and super
groups from Configuration.
- initialized - 类 中的变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- initializeMemStoreChunkCreator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- initializeQueues(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- initializeTable(Connection, TableName) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to initialize the table information.
- initializeTable(Connection, TableName) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to initialize the table information.
- initializeZKBasedSystemTrackers() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Initialize all ZK based system trackers.
- initialSize - 类 中的变量org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- initJob(String, String, String, Class<? extends TableMap>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Use this before submitting a TableMap job.
- initJob(String, String, Class<? extends TableMap>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.IdentityTableMap
-
Use this before submitting a TableMap job.
- initJob(String, Scan, String, Class<? extends TableMapper>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Use this before submitting a TableMap job.
- initJob(String, Scan, Class<? extends TableMapper>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
Use this before submitting a TableMap job.
- initMultiTableSnapshotMapperJob(Map<String, Collection<Scan>>, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from one or more multiple table snapshots, with one or more scans
per snapshot.
- initMultiTableSnapshotMapperJob(Map<String, Collection<Scan>>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from one or more table snapshots, with one or more scans
per snapshot.
- initOutput(FileSystem, Path, boolean, int, short, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- initOutput(FileSystem, Path, boolean, int, short, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- initOutput(FileSystem, Path, boolean, int, short, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- initReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
Initialize the reader used for pread.
- initReader(FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initReader(FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the log reader with a particular stream (may be null).
- initReconfigurable(Configuration) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- initSaslProperties(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SaslUtil
-
- initScanMetrics(Scan) - 类 中的方法org.apache.hadoop.hbase.client.AbstractClientScanner
-
Check and initialize if application wants to collect scan metrics
- initSyncCache() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(TableName, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf, Class) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf, Class, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class, String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class, String, String, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableSnapshotMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- injectEdge(EnvironmentEdge) - 类 中的静态方法org.apache.hadoop.hbase.util.EnvironmentEdgeManager
-
Injects the given edge such that it becomes the managed entity.
- injectNonceGeneratorForTesting(ClusterConnection, NonceGenerator) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
- InlineBlockWriter - org.apache.hadoop.hbase.io.hfile中的接口
-
A way to write "inline" blocks into an
HFile.
- innerBuild() - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- INPUT_FILES_SEPARATOR_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- INPUT_TABLE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Job parameter that specifies the input table.
- InputSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- InputSplit(TableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- inputStream - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- inputStreamFromByteRange(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.types.PBType
-
- insert(Object) - 接口 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlInsertOrReplace
-
- insert(TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
Insert a node into the tree.
- insert(TNode, Object, AvlUtil.AvlKeyComparator<TNode>, AvlUtil.AvlInsertOrReplace<TNode>) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
Insert a node into the tree.
- insertDataValue(long) - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
Inserts given data value to array of data values to be considered for statistics calculation
- insertIntoNSTable(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- insertNewFiles(Collection<HStoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Adds new files, either for from MemStore flush or bulk insert, into the structure.
- insertNewFiles(Collection<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- install(Configuration, FileSystem, Stoppable, Thread) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Install a shutdown hook that calls stop on the passed Stoppable
and then thread joins against the passed threadToJoin.
- installed - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- INSTANCE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- instance() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.SegmentFactory
-
- INSTANCE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- instance - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.EmptyWatcher
-
- instantiate(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- instantiate(Configuration, ServerStatisticTracker) - 类 中的静态方法org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- instantiate(Configuration, RetryingCallerInterceptor, ServerStatisticTracker) - 类 中的静态方法org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- instantiate(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcControllerFactory
-
- instantiate(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.UserProvider
-
- instantiateBlockCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns the block cache or null in case none should be used.
- instantiated - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- instantiateFilter(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Create a
Filter to apply to all incoming keys (
KeyValues) to
optionally not include in the job output
- instantiateHStore(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- instantiateMobFileCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobCacheConfig
-
Instantiates the MobFileCache.
- instantiateRegionScanner(Scan, List<KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- instantiateRegionScanner(Scan, List<KeyValueScanner>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- instantiateWithCustomCtor(String, Class<?>[], Object[]) - 类 中的静态方法org.apache.hadoop.hbase.util.ReflectionUtils
-
- inStates(TableState.State) - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
Check that table in given states
- inStates(TableState.State...) - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
Check that table in given states
- INTEGER - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for an Integer
- internalAdd(Cell, boolean, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- internalAdd(Cell, boolean, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- internalDecodeKeyValues(DataInputStream, int, int, HFileBlockDefaultDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- internalDecodeKeyValues(DataInputStream, int, int, HFileBlockDefaultDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- internalDecodeKeyValues(DataInputStream, int, int, HFileBlockDefaultDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder
-
- internalDecodeKeyValues(DataInputStream, int, int, HFileBlockDefaultDecodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- internalEncode(Cell, HFileBlockDefaultEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- internalEncode(Cell, HFileBlockDefaultEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- internalEncode(Cell, HFileBlockDefaultEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder
-
- internalEncode(Cell, HFileBlockDefaultEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- internalFlushcache(WAL, long, Collection<HStore>, MonitoredTask, boolean, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Flush the memstore.
- internalFlushCacheAndCommit(WAL, MonitoredTask, HRegion.PrepareFlushResult, Collection<HStore>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- internalPrepareFlushCache(WAL, long, Collection<HStore>, MonitoredTask, boolean, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- InternalScan - org.apache.hadoop.hbase.regionserver中的类
-
Special scanner, currently used for increment operations to
allow additional server-side arguments for Scan operations.
- InternalScan(Get) - 类 的构造器org.apache.hadoop.hbase.regionserver.InternalScan
-
- InternalScan(Scan) - 类 的构造器org.apache.hadoop.hbase.regionserver.InternalScan
-
- InternalScanner - org.apache.hadoop.hbase.regionserver中的接口
-
Internal scanners differ from client-side scanners in that they operate on
HStoreKeys and byte[] instead of RowResults.
- interrupt() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- interrupt() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- interruptedException(InterruptedException) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Handles InterruptedExceptions in client calls.
- interruptedExceptionNoThrow(InterruptedException, boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Log the InterruptedException and interrupt current thread
- intFitsIn(int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Check how many bytes is required to store value.
- INVALID_HASH - 类 中的静态变量org.apache.hadoop.hbase.util.Hash
-
Constant to denote invalid hash type.
- INVALID_REGION_NAME_FORMAT_MESSAGE - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
- InvalidFamilyOperationException - org.apache.hadoop.hbase中的异常错误
-
Thrown if a request is table schema modification is requested but
made for an invalid family name.
- InvalidFamilyOperationException() - 异常错误 的构造器org.apache.hadoop.hbase.InvalidFamilyOperationException
-
default constructor
- InvalidFamilyOperationException(String) - 异常错误 的构造器org.apache.hadoop.hbase.InvalidFamilyOperationException
-
Constructor
- InvalidFamilyOperationException(Exception) - 异常错误 的构造器org.apache.hadoop.hbase.InvalidFamilyOperationException
-
Constructor taking another exception.
- InvalidHFileException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
Thrown when an invalid HFile format is detected
- InvalidHFileException() - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.InvalidHFileException
-
constructor
- InvalidHFileException(String) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.InvalidHFileException
-
Constructor
- InvalidRowFilterException - org.apache.hadoop.hbase.filter中的异常错误
-
Used to indicate an invalid RowFilter.
- InvalidRowFilterException() - 异常错误 的构造器org.apache.hadoop.hbase.filter.InvalidRowFilterException
-
constructor
- InvalidRowFilterException(String) - 异常错误 的构造器org.apache.hadoop.hbase.filter.InvalidRowFilterException
-
constructor
- invert(float[][]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Copy a given matrix into a new matrix, transforming each row index and
each column index according to the inverse of the randomization scheme
that was created at construction time.
- invertIndices(int[]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Given an array where each element indices[i] represents the
randomized column index corresponding to randomized row index i,
create a new array with the corresponding inverted indices.
- invokeMethod(Object, String, Object...) - 类 中的静态方法org.apache.hadoop.hbase.util.ReflectionUtils
-
Get and invoke the target method from the given object with given parameters
- IO_STOREFILE_BLOOM_BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Target Bloom block size.
- IO_STOREFILE_BLOOM_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Master switch to enable Bloom filters
- IO_STOREFILE_BLOOM_ERROR_RATE - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Specifies the target error rate to use when selecting the number of keys
per Bloom filter.
- IO_STOREFILE_BLOOM_MAX_FOLD - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Maximum folding factor allowed.
- IO_STOREFILE_BLOOM_MAX_KEYS - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
For default (single-block) Bloom filters this specifies the maximum number
of keys.
- IO_STOREFILE_DELETEFAMILY_BLOOM_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Master switch to enable Delete Family Bloom filters
- IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_KEY - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- IPC_SERVER_MAX_CALLQUEUE_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcScheduler
-
- IPC_SERVER_PRIORITY_MAX_CALLQUEUE_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcScheduler
-
- is32BitJVM() - 类 中的静态方法org.apache.hadoop.hbase.util.ClassSize
-
Determines if we are running in a 32-bit JVM.
- IS_ACTIVE_MASTER_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- IS_ACTIVE_MASTER_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- IS_META - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Used by rest interface to access this metadata attribute
which denotes if it is a catalog table, either hbase:meta .
- IS_META - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- IS_MOB - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- IS_MOB - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- IS_MOB_BYTES - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- IS_ROOT - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- isAborted() - 接口 中的方法org.apache.hadoop.hbase.Abortable
-
Check if the server or client was aborted.
- isAborted() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- isAboveHighWaterMark() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Return true if we are above the memstore high water mark
- isAboveLowWaterMark() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Return true if we're above the low watermark
- isAcceptableAddress(InetAddress) - 接口 中的方法org.apache.hadoop.hbase.util.Addressing.AddressSelectionCondition
-
Condition on which to accept inet address
- isActiveMaster() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master is currently the active master or not.
- isActiveMaster() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isAlive() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Test for the availability of the web server
- isAlive() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- isAllTime() - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
Check if it is for all time
- isAmd64() - 类 中的静态方法org.apache.hadoop.hbase.util.JVM
-
Check if the arch is amd64;
- isAnyMetaReplicaZNode(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
Is the znode of any meta replica
- isArchivedLogFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- isAsyncPrefetch() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isAutoFlush() - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- isAvailable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isAvailable() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isAvailable() - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAvailChecker
-
- isBackReferencesDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Checks if the specified directory path is a back reference links folder.
- isBadJvmVersion() - 类 中的静态方法org.apache.hadoop.hbase.util.JvmVersion
-
Return true if the current JVM is known to be unstable.
- isBalancerEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query the current state of the balancer.
- isBalancerEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query the current state of the balancer.
- isBalancerEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isBalancerEnabled(RpcController, MasterProtos.IsBalancerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isBalancerEnabled(RpcController, MasterProtos.IsBalancerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isBalancerOn() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
- isBalancerOn() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isBalancerOn() - 类 中的方法org.apache.hadoop.hbase.zookeeper.LoadBalancerTracker
-
Return true if the balance switch is on, false otherwise
- isBlobCopy(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses BlobCopy
encoding, false otherwise.
- isBlobVar(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses BlobVar
encoding, false otherwise.
- isBlockCacheEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isBlockCacheEnabled() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isBlockCacheEnabled() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isBlockCacheEnabled() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Checks whether the block cache is enabled.
- isBroken() - 接口 中的方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutput
-
Whether the stream is broken.
- isBroken() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutput
-
- isBroken() - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.WrapperAsyncFSOutput
-
- isBulkLoaded() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- isBulkLoadResult() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isBulkLoadResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Check if this storefile was created by bulk load.
- isBypass() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- isBypassable() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- isCacheBloomsOnWrite() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isCacheBloomsOnWrite() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isCacheBloomsOnWrite() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isCacheDataOnWrite() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isCacheDataOnWrite() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isCacheDataOnWrite() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isCacheIndexesOnWrite() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isCacheIndexesOnWrite() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isCacheIndexesOnWrite() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isCacheMobBlocks(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Indicates whether the scan contains the information of caching blocks.
- isCallDroppedException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
Checks if the exception is CallDroppedException (maybe wrapped
into some RemoteException).
- isCallQueueTooBigException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
Checks if the exception is CallQueueTooBig exception (maybe wrapped
into some RemoteException).
- isCanceled() - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- isCanceled() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- isCanceled() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- isCanceled() - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
- isCancelled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- isCancelled() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- isCatalogJanitorEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query on the catalog janitor state (Enabled/Disabled?).
- isCatalogJanitorEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query on the catalog janitor state.
- isCatalogJanitorEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isCatalogJanitorEnabled(RpcController, MasterProtos.IsCatalogJanitorEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isCatalogJanitorEnabled(RpcController, MasterProtos.IsCatalogJanitorEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isCheckExistenceOnly() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- isCheckOnlyMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
Returns true if only the MemStore should be checked.
- isCheckOnlyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
Returns true if only StoreFiles should be checked.
- isChoreScheduled(ScheduledChore) - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- isClassExempt(String, String[]) - 类 中的方法org.apache.hadoop.hbase.util.CoprocessorClassLoader
-
Determines whether the given class should be exempt from being loaded
by this ClassLoader.
- isClassLoaderLoaded() - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- isCleanerChoreEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query on the cleaner chore state (Enabled/Disabled?).
- isCleanerChoreEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query the current state of the cleaner chore.
- isCleanerChoreEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isCleanerChoreEnabled(RpcController, MasterProtos.IsCleanerChoreEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isCleanerChoreEnabled(RpcController, MasterProtos.IsCleanerChoreEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isClientCellBlockSupported() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
If the client connected and specified a codec to use, then we will use this codec making
cellblocks to return.
- isClientReadable(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
Returns whether the znode is supposed to be readable by the client and DOES NOT contain
sensitive information (world readable).
- isClientScannerAsyncPrefetch() - 类 中的方法org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- isClosed() - 接口 中的方法org.apache.hadoop.hbase.client.Connection
-
Returns whether the connection is closed or not.
- isClosed() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isClosed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isClosed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isClosed(AdminProtos.CloseRegionResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Check if the region is closed from a CloseRegionResponse
- isClosed() - 类 中的方法org.apache.hadoop.hbase.SharedConnection
-
- isClosestRowBefore() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- isClosing() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isClosing() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isClosing() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isClosingOrClosedOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isClusterUp() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isClusterUp() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isClusterUp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- isClusterUp() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Checks if cluster is up.
- isCodelQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isCompactedAway() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isCompaction - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- isCompactionEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Check if the compaction enable flag of the table is true.
- isCompactionEnabled() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Check if the compaction enable flag of the table is true.
- isCompactionEnabled() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Check if the compaction enable flag of the table is true.
- isCompactionMarker(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
Returns true if the given cell is a serialized WALProtos.CompactionDescriptor
- isCompactionNeeded() - 接口 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResult
-
- isCompactionNeeded() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
Convenience method, the equivalent of checking if result is FLUSHED_COMPACTION_NEEDED.
- isComplete() - 类 中的方法org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- isComplete() - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- isCompleted(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- isCompressedOrEncrypted() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- isCompressTags() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isCompressTags() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isCompressTags() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isCompressTags() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- isConnectionException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
Check if the exception is something that indicates that we cannot
contact/communicate with the server.
- isCorrectEncoder(DataBlockEncoder, short) - 枚举 中的静态方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoding
-
Check if given encoder has this id.
- isCorrupted(Path, String, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- iscreate(InputStream, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Create a KeyValue reading from the raw InputStream.
- isCursor() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Return true if this Result is a cursor to tell users where the server has scanned.
- isData() - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- isDead - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- isDeadlineQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isDeadServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- isDecodeMemStoreTS() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- isDecodeMemStoreTS() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- isDefaultMetaReplicaZnode(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
Is it the default meta replica's znode
- isDefaultReplica(int) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
- isDefaultReplica(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
- isDelete(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDelete(byte) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDelete(byte) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleteColumnOrFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteColumnOrFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleteColumns(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteColumns(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleteColumnVersion(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteColumnVersion(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleted(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DeleteTracker
-
Check if the specified cell buffer has been deleted by a previously seen delete.
- isDeleted(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
This method is not idempotent, we will save some info to judge VERSION_MASKED.
- isDeleted(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
Check if the specified Cell buffer has been deleted by a previously seen delete.
- isDeleteFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleteFamilyBloomEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- isDeleteFamilyVersion(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteFamilyVersion(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDeleteType(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isDeleteType(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- isDelFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isDelFile(String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isDirectory(FileSystem, Boolean, Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- isDisabled() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isDisabledOrDisabling() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isDisabling() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isDistributedFileSystem(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- isDone() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- isDone() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- isDone(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Give the tracker a chance to declare it's done based on only the timestamp
to allow an early out.
- isDone(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- isDone(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- isDone(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- isDone(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isDone() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isDoNotRetry() - 异常错误 中的方法org.apache.hadoop.hbase.ipc.RemoteWithExtrasException
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Method to check if the familyMap is empty
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Check if the underlying Cell [] is empty or not
- isEmpty() - 接口 中的方法org.apache.hadoop.hbase.client.RowAccess
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Returns whether there are non-null elements in the list
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- isEmpty() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DeleteTracker
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- isEmpty(ByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- isEmpty() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.NodeAndData
-
已过时。
- isEmptyQuota(QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- isEnable() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- isEnabled() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isEnabled(Configuration) - 接口 中的静态方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- isEnabled() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerDescription
-
- isEnabledOrEnabling() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isEnabling() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- isEncodedRegionName(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- isEncodedRegionName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- isEncodedValue(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Returns true when src appears to be positioned an encoded value,
false otherwise.
- isErr(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isErr() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isEvictBlocksOnClose() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isEvictBlocksOnClose() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isEvictBlocksOnClose() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isExclusive() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Only one instance of hbck can modify HBase at a time.
- isExists(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Calls fs.exists().
- isFailedClose() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isFailedOpen() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isFailedServer(InetSocketAddress) - 类 中的方法org.apache.hadoop.hbase.ipc.FailedServers
-
Check if the server should be considered as bad.
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
Check that given column family is essential for filter to check row.
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
By default, we require all scan's column families to be present.
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
The only CF this filter needs is given column family.
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- isFamilyEssential(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- isFavoredNodeApplicable(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.favored.FavoredNodesManager
-
- isFifoQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isFile(FileSystem, Boolean, Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- isFileInfoLoaded() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- isFileScanner() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- isFileScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- isFileScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- isFileScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- isFilterDone() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- isFinished() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Check to see if the snapshot is finished, where finished may be success or failure.
- isFixedFloat32(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Float32 encoding, false otherwise.
- isFixedFloat64(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Float64 encoding, false otherwise.
- isFixedInt16(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Int16 encoding, false otherwise.
- isFixedInt32(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Int32 encoding, false otherwise.
- isFixedInt64(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Int64 encoding, false otherwise.
- isFixedInt8(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses fixed-width
Int8 encoding, false otherwise.
- isFlushSucceeded() - 接口 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResult
-
- isFlushSucceeded() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
Convenience method, the equivalent of checking if result is
FLUSHED_NO_COMPACTION_NEEDED or FLUSHED_NO_COMPACTION_NEEDED.
- isFull() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- isFullServerName(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- isGeneralBloomEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- isGetScan() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isGroupPrincipal(String) - 类 中的静态方法org.apache.hadoop.hbase.AuthUtil
-
Returns whether or not the given name should be interpreted as a group
principal.
- isGuaranteedClientSideOnly() - 异常错误 中的方法org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- isGZIPOutputStreamFinishBroken() - 类 中的静态方法org.apache.hadoop.hbase.util.JVM
-
Check if the finish() method of GZIPOutputStream is broken
- isHadoopSecurityEnabled() - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
- isHashCached() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- isHBaseSecurityEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Returns whether or not secure authentication is enabled for HBase.
- isHBaseSecurityEnabled() - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
- isHDFS(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- isHFile() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isHFile() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isHFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isHFile(String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isHFileFormat(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns true if the specified file has a valid HFile Trailer.
- isHFileFormat(FileSystem, FileStatus) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns true if the specified file has a valid HFile Trailer.
- isHFileLink(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- isHFileLink(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- isHttpEnabled() - 枚举 中的方法org.apache.hadoop.hbase.http.HttpConfig.Policy
-
- isHttpsEnabled() - 枚举 中的方法org.apache.hadoop.hbase.http.HttpConfig.Policy
-
- isIncludesMvcc() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- isIncludesTags() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- isInitialChoreComplete() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- isInitialized() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master has completed with its initialization and is
ready.
- isInitialized() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isInitialized() - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Checks if namespace auditor is initialized.
- isInMaintenanceMode() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master is in maintenance mode.
- isInMaintenanceMode() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isInMaintenanceMode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
- isInMemory() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isInMemory() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isInMemory() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isInMemory() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- isInReturnCodes(Filter.ReturnCode, Filter.ReturnCode...) - 类 中的静态方法org.apache.hadoop.hbase.filter.FilterListBase
-
- isInRpcCallContext() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- isInStates(TableState.State...) - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
Static version of state checker
- isInstrumentationAccessAllowed(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
Checks the user has privileges to access to instrumentation servlets.
- isInterrupt(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.util.ExceptionUtil
-
- isInterrupted() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- isInViolation() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
- isLatestTimestamp() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- isLegalColumnFamilyName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- isLegalFamilyName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HColumnDescriptor
-
- isLegalFullyQualifiedTableName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
Check passed byte array, "tableName", is legal user-space table name.
- isLegalNamespaceName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
- isLegalNamespaceName(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
Valid namespace characters are alphabetic characters, numbers, and underscores.
- isLegalTableQualifierName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
- isLegalTableQualifierName(byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
- isLegalTableQualifierName(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
Qualifier names can only contain 'word' characters
[\p{IsAlphabetic}\p{Digit}] or '_', '.' or '-'.
- isLegalTableQualifierName(byte[], int, int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
- isLink() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isLinked(TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- isLinux() - 类 中的静态方法org.apache.hadoop.hbase.util.JVM
-
Check if the OS is linux.
- isLoadingCfsOnDemandDefault() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isLocal(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- isLocalAddress(InetAddress) - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
Given an InetAddress, checks to see if the address is a local address, by comparing the address
with all the interfaces on the node.
- isLocationAvailable(ZKWatcher) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Checks if the meta region location is available.
- isLocked() - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock
-
- isMajorCompactionResult() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isMajorCompactionResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isMasterInMaintenanceMode() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Check whether Master is in maintenance mode.
- isMasterInMaintenanceMode() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Check whether master is in maintenance mode
- isMasterInMaintenanceMode() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isMasterInMaintenanceMode(RpcController, MasterProtos.IsInMaintenanceModeRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isMasterInMaintenanceMode(RpcController, MasterProtos.IsInMaintenanceModeRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isMasterRunning() - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- isMasterRunning(RpcController, MasterProtos.IsMasterRunningRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isMasterRunning(RpcController, MasterProtos.IsMasterRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isMatchingTail(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Compare path component of the Path URI; e.g. if hdfs://a/b/c and /a/b/c, it will compare the
'/a/b/c' part.
- isMatchingTail(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Compare path component of the Path URI; e.g. if hdfs://a/b/c and /a/b/c, it will compare the
'/a/b/c' part.
- isMatchingTail(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compare path component of the Path URI; e.g. if hdfs://a/b/c and /a/b/c, it will compare the
'/a/b/c' part.
- isMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- isMergeable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isMergeable() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isMerged() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMerged() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- isMergeEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query the current state of the merge switch.
- isMergeEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query the current state of the Merge switch.
- isMergeEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isMerging() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMergingNew() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMergingNewOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMergingNewOrOfflineOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMergingNewOrOpenedOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMergingOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isMetaClearingException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
- isMetaEdit() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- isMetaEditFamily(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- isMetaEditFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALEdit
-
- isMetaFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- isMetaFile(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- isMetaRegion() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- isMetaRegion() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Checks if this table is hbase:meta region.
- isMetaRegion() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Checks if this table is hbase:meta region.
- isMetaRegion() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isMetaRegion() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Checks if this table is hbase:meta
region.
- isMetaTable() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Checks if the table is a hbase:meta table
- isMetaTable() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Checks if the table is a hbase:meta table
- isMetaTable() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isMetaTable() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Checks if the table is a hbase:meta table
- isMetaTableName(TableName) - 类 中的静态方法org.apache.hadoop.hbase.TableName
-
- isMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- isMobEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
Gets whether the mob is enabled for the family.
- isMobEnabled() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isMobEnabled() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isMobFileExpired(ColumnFamilyDescriptor, long, String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Checks if the mob file is expired.
- isMobReferenceCell(Cell) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Whether the current cell is a mob reference cell.
- isMobRegionInfo(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets whether the current RegionInfo is a mob one.
- isMobRegionName(TableName, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Gets whether the current region name follows the pattern of a mob region name.
- isNamespaceRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- isNamespacesAndTableCFsEqual(ReplicationPeerConfig, ReplicationPeerConfig) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationUtils
-
- isNeedCursorResult() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isNeedProcessConnectionHeader() - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClientHandler
-
- isNewKey(Cell) - 类 中的方法org.apache.hadoop.hbase.util.BloomContext
-
Returns true if the cell is a new key as per the bloom type
- isNewKey(Cell) - 类 中的方法org.apache.hadoop.hbase.util.RowBloomContext
-
- isNewKey(Cell) - 类 中的方法org.apache.hadoop.hbase.util.RowColBloomContext
-
- isNewVersionBehavior() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
By default, HBase only consider timestamp in versions.
- isNewVersionBehavior() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
By default, HBase only consider timestamp in versions.
- isNewVersionBehavior() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
By default, HBase only consider timestamp in versions.
- isNewVersionBehavior() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- isNormalizationEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Check if normalization enable flag of the table is true.
- isNormalizationEnabled() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Check if normalization enable flag of the table is true.
- isNormalizationEnabled() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Check if normalization enable flag of the table is true.
- isNormalizerEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query the current state of the region normalizer.
- isNormalizerEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query the current state of the region normalizer
- isNormalizerEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isNormalizerEnabled(RpcController, MasterProtos.IsNormalizerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isNormalizerEnabled(RpcController, MasterProtos.IsNormalizerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isNormalizerOn() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isNormalizerOn() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
Return true if region normalizer is on, false otherwise
- isNull() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
- isNull(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src is null, false
otherwise.
- isNullable() - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Indicates whether this instance supports encoding null values.
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedBytesBase
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat32
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedFloat64
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt16
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt32
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt64
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedInt8
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.PBType
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.Union3
-
- isNullable() - 类 中的方法org.apache.hadoop.hbase.types.Union4
-
- isNumeric(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses Numeric
encoding, false otherwise.
- isNumericInfinite(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses Numeric
encoding and is Infinite, false otherwise.
- isNumericNaN(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses Numeric
encoding and is NaN, false otherwise.
- isNumericZero(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses Numeric
encoding and is 0, false otherwise.
- isOffHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- isOffHeap() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- isOffHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- isOffheapMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- isOffline() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- isOffline() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isOffline() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- IsolationLevel - org.apache.hadoop.hbase.client中的枚举
-
Specify Isolation levels in Scan operations.
- isOnHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableMemStoreLAB
-
- isOnHeap() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- isOnHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- isOnline() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Report the status of the server.
- isOnline() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- isOnline() - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Whether the manager is able to fully return group metadata
- isOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOpened() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOpenedOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOpening() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOpeningOrFailedOpenOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOpeningOrOpenedOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isOrderPreserving() - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Indicates whether this instance writes encoded byte[]'s
which preserve the natural sort order of the unencoded value.
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.OrderedBytesBase
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.PBType
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- isOrderPreserving - 类 中的变量org.apache.hadoop.hbase.types.Struct
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.Union3
-
- isOrderPreserving() - 类 中的方法org.apache.hadoop.hbase.types.Union4
-
- isOrphan() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- isOwned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isOwned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isPartial() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- isPBMagicPrefix(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- isPBMagicPrefix(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- isPeerEnabled() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Test whether the peer is enabled.
- isPeerEnabled(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerStorage
-
Test whether a replication peer is enabled.
- isPeerEnabled(String) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- isPeriodic() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- isPrefetchBlocksOnOpen() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- isPrefetchBlocksOnOpen() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- isPrefetchBlocksOnOpen() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- isPrimary() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- isPrimaryReplicaReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- isPrimaryReplicaReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- isPrimaryReplicaReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- isPrimaryReplicaStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- isPrimaryReplicaStore() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- isProcedureDone(RpcController, MasterProtos.IsProcedureDoneRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isProcedureDone(RpcController, MasterProtos.IsProcedureDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Checks if the specified procedure is done.
- isProcedureFinished(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Check the current state of the specified procedure.
- isProcedureFinished(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Check the current state of the specified procedure.
- isProcedureFinished(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isProcessed() - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse.Entry
-
- isPut(Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- isQueueRecovered() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueInfo
-
- isQuotaEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
Returns true if the support for quota is enabled
- isQuotaEnabled() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
- isQuotaInitialized() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- isQuoteUnescaped(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Returns a boolean indicating whether the quote was escaped or not
- isRaw() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isRawMobScan(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Indicates whether it's a raw scan.
- isReadEmptyValueOnMobCellMiss(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Indicates whether return null value when the mob file is missing or corrupt.
- isReadOnly() - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Check if the readOnly flag of the table is set.
- isReadOnly() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Check if the readOnly flag of the table is set.
- isReadOnly() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Check if the readOnly flag of the table is set.
- isReadOnly() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isReadOnly() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isReadOnly(HRegion) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns whether this region replica can accept writes.
- isReady() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Check whether the log splitter is ready to supply tasks
- isReady() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- isReadyToOffline() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
Check if a region state can transition to offline
- isReadyToOnline() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
Check if a region state can transition to online
- isRecoveredEdits(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Checks if the given path is the one with 'recovered.edits' dir.
- isRecoverySupported() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- isReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isReference() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReference(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReference(String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReferencedInReads() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- isRefOnlyScan(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Indicates whether it's a reference only scan.
- isRegionCached(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.MetaCache
-
Check the region cache to see whether a region is cached yet or not.
- isRegionInServerManagerStates(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- isRegionReplicaReplicationEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionReplicaStoreFileRefreshEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionReplicaWaitForPrimaryFlushEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionServerRemote - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- isRegionStale(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- isRemote() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
The cause of a ForeignException can be an exception that was generated on a local in process
thread, or a thread from a 'remote' separate process.
- isReplay() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- isReplicasForSameRegion(RegionInfo, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
- isReplicationForBulkLoadDataEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationUtils
-
- isRescanNode(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- isRescanNode(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
Checks if the given path represents a rescan node.
- isReservedFileInfoKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Return true if the given file info key is reserved for internal use.
- isResigned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isResigned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isRetry() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- isRetryImmediatelySupported() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- isReturnResults() - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- isReturnResults() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- isReturnResults() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- isReversed() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get whether this scan is a reversed one.
- isReversed() - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
- isReversed() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- isRootRegion() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
This is vestigial API.
- isRSGroupsEnabled(Connection) - 类 中的静态方法org.apache.hadoop.hbase.RSGroupTableAccessor
-
- isRunning() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Returns true if this service is RUNNING.
- isSameAddress(ServerName, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- isSameHdfs(Configuration, FileSystem, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSHDFSUtils
-
- isScanMetricsEnabled() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isScheduled() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- isSecure() - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- isSecureZooKeeper(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Returns whether or not secure authentication is enabled
(whether hbase.security.authentication is set to
kerberos.
- isSecurityAvailable(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- isSecurityEnabled - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- isSecurityEnabled() - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Returns whether or not Kerberos authentication is configured for Hadoop.
- isSecurityEnabled() - 类 中的静态方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
Returns the result of UserGroupInformation.isSecurityEnabled().
- isSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- isSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- isSeeked() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- isSequenceIdFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Is the given file a region open sequence id file.
- isSerial() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- isServerDead(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Check if a server is known to be dead.
- isServerOnline(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- isShowConfInServlet() - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
- isShutdown() - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- isShutDown() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isSingleRow() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- isSkipChecks() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- isSkippable() - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Indicates whether this instance is able to skip over it's encoded value.
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedBlob
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.OrderedBytesBase
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.PBType
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- isSkippable - 类 中的变量org.apache.hadoop.hbase.types.Struct
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.Union2
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.Union3
-
- isSkippable() - 类 中的方法org.apache.hadoop.hbase.types.Union4
-
- isSloppy() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- isSloppy() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- isSloppy() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- isSloppyMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- isSloppyMemStore() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- isSmall() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- isSnapshotCorrupted() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
- isSnapshotDone(RpcController, MasterProtos.IsSnapshotDoneRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isSnapshotDone(RpcController, MasterProtos.IsSnapshotDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Checks if the specified snapshot is done.
- isSnapshotFinished(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Check the current state of the passed snapshot.
- isSnapshotFinished(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Check the current state of the passed snapshot.
- isSnapshotFinished(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isSnapshotOwner(SnapshotDescription, User) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Check if the user is this table snapshot's owner
- isSorted(Collection<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- isSpecialException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
- isSplit() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- isSplit() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isSplit() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HFileInputFormat
-
- isSplitEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Query the current state of the split switch.
- isSplitEnabled() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Query the current state of the Split switch.
- isSplitEnabled() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isSplitOrMergeEnabled(MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isSplitOrMergeEnabled(RpcController, MasterProtos.IsSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- isSplitOrMergeEnabled(MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isSplitOrMergeEnabled(RpcController, MasterProtos.IsSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isSplitOrMergeEnabled(MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isSplitOrMergeEnabled(MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.SplitOrMergeTracker
-
- isSplitParent() - 接口 中的方法org.apache.hadoop.hbase.client.RegionInfo
-
- isSplitParent() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isSplittable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isSplittable() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isSplitting() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplittingNew() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplittingNewOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplittingOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplittingOrOpenedOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isSplittingOrSplitOnServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- isStale() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Whether or not the results are coming from possibly stale data.
- isStarted() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- isStarted() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- isStarted() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- isStarting() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- isStarting() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
- isStartingWithPath(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Compare of path component.
- isStartRowInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- isStop() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
- isStop() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- isStopped() - 接口 中的方法org.apache.hadoop.hbase.Stoppable
-
- isStopping() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isStopping() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- isStopRowInclusive() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- isSuperUser(User) - 类 中的静态方法org.apache.hadoop.hbase.security.Superusers
-
- isSuperUserId(String[], Id) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- isSystemTable() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- isSystemTable() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- isSystemTablesOnlyOnMaster(Configuration) - 接口 中的静态方法org.apache.hadoop.hbase.master.LoadBalancer
-
- isTableAvailable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isTableAvailable(TableName, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isTableAvailable(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- isTableAvailable(TableName, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Use this api to check if the table has been created with the specified number of splitkeys
which was used while creating the given table.
- isTableAvailable(TableName, byte[][]) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Use this api to check if the table has been created with the specified number of
splitkeys which was used while creating the given table.
- isTableAvailable(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isTableAvailable(TableName, byte[][]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isTableAvailable(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- isTableAvailable(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
- isTableAvailableAndInitialized() - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
This method checks if the namespace table is assigned and then
tries to create its Table reference.
- isTableDisabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isTableDisabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- isTableDisabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
- isTableDisabled(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isTableEnabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- isTableEnabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- isTableEnabled(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
A table that isTableEnabled == false and isTableDisabled == false
is possible.
- isTableEnabled(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- isTableInfoExists(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Checks if a current table info file exists for the given table
- isTablePresent(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- isTableRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- isTablesOnMaster(Configuration) - 接口 中的静态方法org.apache.hadoop.hbase.master.LoadBalancer
-
- isTableState(TableName, TableState.State...) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- isTagsPresent() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- isTagsPresent() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- isTagsPresent() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- isTerminated() - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- isText(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Return true when the next encoded value in src uses Text encoding,
false otherwise.
- isTop() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- isTopFileRegion(Reference.Range) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- isTopReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isUnassignable() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
Check if a region state is one of offline states that
can't transition to pending_close/closing (unassign/offline)
- isUnassignable(RegionState.State) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionState
-
Check if a region state is one of offline states that
can't transition to pending_close/closing (unassign/offline)
- isUnassigned() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- isUnassigned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isUnassigned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isUnix() - 类 中的静态方法org.apache.hadoop.hbase.util.JVM
-
Check if the OS is unix.
- isUnpacked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Return true when this block's buffer has been unpacked, false otherwise.
- isUsecache() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- isUseHBaseChecksum() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- isUserRowKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- isUsingL0Flush() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- isValid() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- isValid(FileStatus) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Return if the specified file is a valid store file or not.
- isValidArguements(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ExportUtils
-
- isValidName(String) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.BlackListDirFilter
-
- isValidName(String) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.UserTableDirFilter
-
- isValidState(ScannerContext.NextState) - 枚举 中的静态方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- iter - 类 中的变量org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- iterateOnSplits(byte[], byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Iterate over keys within the passed range, splitting at an [a,b) boundary.
- iterateOnSplits(byte[], byte[], boolean, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Iterate over keys within the passed range.
- iterator() - 接口 中的方法org.apache.hadoop.hbase.client.ResultScanner
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- iterator() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaRetriever
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- iterator(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
Retrieve an
Iterator over the values encoded in
src.
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists
-
- Iterator() - 类 的构造器org.apache.hadoop.hbase.util.ConcatenatedLists.Iterator
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.PairOfSameType
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- iterNext - 类 中的变量org.apache.hadoop.hbase.util.AvlUtil.AvlLinkedNode
-
- iterPrev - 类 中的变量org.apache.hadoop.hbase.util.AvlUtil.AvlLinkedNode
-
- IV_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.Cipher
-
- MAGIC_LENGTH - 枚举 中的静态变量org.apache.hadoop.hbase.io.hfile.BlockType
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.client.example.AsyncClientExample
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.client.example.BufferedMutatorExample
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.client.example.ExportEndpointExample
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.client.example.HttpProxyExample
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.client.example.MultiThreadedClientExample
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.Export
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
For debugging.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.http.HtmlQuoting
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.http.log.LogLevel
-
A command line implementation
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Test things basically work.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapred.Driver
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapred.RowCounter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CellCounter
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Driver
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Export
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HashTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.RowCounter
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SampleUploader
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mob.ExpiredMobFileCleaner
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.CompactionTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Code to help figure if our approximation of object heap sizes is close
enough.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.DumpRegionServerMetrics
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ScannerIdGenerator
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Main to test basic functionality.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
Pass one or more log file names and it will either dump out a text version on
stdout or split the specified log files.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.Compressor
-
Command line tool to compress and uncompress WALs.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.rest.RESTDemoClient
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.rest.RESTServer
-
The main method for the HBase rest server.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Base64
-
Main program.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.compaction.MajorCompactor
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.GetJavaProperty
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseConfTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Main program
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.hbck.OfflineMetaRepair
-
Main program
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.JenkinsHash
-
Compute the hash of the specified file
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
Simple 'main' to facilitate manual testing of the pause monitor.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.RegionMover
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.RegionSplitter
-
The main function for the RegionSplitter application.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.VersionInfo
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.HQuorumPeer
-
Parse ZooKeeper configuration from HBase XML config and run a QuorumPeer.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKAclReset
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKMainServer
-
Run the tool.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKServerTool
-
Run the tool.
- main(String[]) - 类 中的静态方法org.apache.hbase.archetypes.exemplars.client.HelloHBase
-
- main(String[]) - 类 中的静态方法org.apache.hbase.archetypes.exemplars.shaded_client.HelloHBase
-
- MAJOR_COMPACTED_CELLS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_CELLS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_CELLS_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_CELLS_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_INPUT_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_INPUT_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_OUTPUT_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTED_OUTPUT_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_INPUT_FILE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_INPUT_FILE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_INPUT_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_INPUT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_JITTER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name and default value for major compaction jitter.
- MAJOR_COMPACTION_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Major compaction flag in FileInfo
- MAJOR_COMPACTION_OUTPUT_FILE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_OUTPUT_FILE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_OUTPUT_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_OUTPUT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name and default value for how often a region should perform a major compaction
- MAJOR_COMPACTION_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_COMPACTION_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAJOR_VERSION - 异常错误 中的静态变量org.apache.hadoop.hbase.exceptions.RequestTooBigException
-
- majorCompact(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a table.
- majorCompact(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a column family within a table.
- majorCompact(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a table.
- majorCompact(TableName, byte[], CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a column family within a table.
- majorCompact(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a table.
- majorCompact(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a column family within a table.
- majorCompact(TableName, CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a table.
- majorCompact(TableName, byte[], CompactType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a column family within a table.
- majorCompact(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- majorCompact(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Major compact a column family within a table.
- majorCompact(TableName, byte[], CompactType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Major compact a column family within a table.
- majorCompact(TableName, CompactType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Major compact a table.
- MajorCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for major compaction.
- MajorCompactionScanQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.MajorCompactionScanQueryMatcher
-
- MajorCompactor - org.apache.hadoop.hbase.util.compaction中的类
-
- MajorCompactor(Configuration, TableName, Set<String>, int, long, long) - 类 的构造器org.apache.hadoop.hbase.util.compaction.MajorCompactor
-
- majorCompactRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a table or an individual region.
- majorCompactRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact a column family within region.
- majorCompactRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a region.
- majorCompactRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Major compact a column family within region.
- majorCompactRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- majorCompactRegion(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- majorCompactRegionServer(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Major compact all regions on the region server.
- majorCompactRegionServer(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Compact all regions on the region server.
- majorCompactRegionServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- makeColumn(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Makes a column in family:qualifier form from separate byte arrays.
- makeFilter(QuotaFilter) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
converts quotafilter to serializeable filterlists.
- makeGetForNamespaceQuotas(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- makeGetForTableQuotas(TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- makeGetForUserQuotas(String, Iterable<TableName>, Iterable<String>) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- makePutForReplicationBarrier(RegionInfo, long, long) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- makePutFromRegionInfo(RegionInfo, long) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Generates and returns a Put containing the region into for the catalog table
- makePutFromTableState(TableState, long) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Construct PUT for given state
- makeQuotaSnapshotScan() - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
Creates a
Scan which returns only quota snapshots from the quota table.
- makeQuotaSnapshotScanForTable(TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- makeScan(QuotaFilter) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- makeZKProps(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Make a Properties object holding ZooKeeper config.
- ManualEnvironmentEdge - org.apache.hadoop.hbase.util中的类
-
An environment edge that uses a manually set value.
- ManualEnvironmentEdge() - 类 的构造器org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- map(ImmutableBytesWritable, Result, OutputCollector<ImmutableBytesWritable, Result>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Extract the grouping columns from value to construct a new key.
- map(ImmutableBytesWritable, Result, OutputCollector<ImmutableBytesWritable, Result>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.IdentityTableMap
-
Pass the key, value to reduce
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Result>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Extract the grouping columns from value to construct a new key.
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Result>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
Pass the key, value to reduce.
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellImporter
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, Import.CellWritableComparable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellSortImporter
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueImporter
-
已过时。
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, Import.KeyValueWritableComparable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueSortImporter
-
已过时。
- Map() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IndexBuilder.Map
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IndexBuilder.Map
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- map(LongWritable, Text, Mapper<LongWritable, Text, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Convert a line of TSV text into an HBase table row.
- map(LongWritable, Text, Mapper<LongWritable, Text, ImmutableBytesWritable, Text>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
Convert a line of TSV text into an HBase table row.
- map(WALKey, WALEdit, Mapper<WALKey, WALEdit, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer.WALMapper
-
- MAP_ENTRY - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for entry in map
- mapKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- mapKey(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- MAPPER - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MAPPER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
- MAPPER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- mappStringToJsonNode(String) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- MAPREDUCE_INPUT_AUTOBALANCE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Specify if we enable auto-balance to set number of mappers in M/R jobs.
- MapreduceDependencyClasspathTool - org.apache.hadoop.hbase.util中的类
-
Generate a classpath string containing any jars required by mapreduce jobs.
- MapreduceDependencyClasspathTool() - 类 的构造器org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- MapReduceExtendedCell - org.apache.hadoop.hbase.util中的类
-
A wrapper for a cell to be used with mapreduce, as the output value class for mappers/reducers.
- MapReduceExtendedCell(Cell) - 类 的构造器org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- mark() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Marks the current position of the ByteBuff
- mark() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Marks the current position of the MBB
- mark() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- markCompactedAway() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- markCorrupted(Path, String, FileSystem) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
marks log file as corrupted
- markCorrupted(Path, String, FileSystem) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- markCorrupted(Path, String, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- MASK_FOR_LOWER_INT_IN_LONG - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Mask to apply to a long to reveal the lower int only.
- MASTER - 类 中的静态变量org.apache.hadoop.hbase.master.HMaster
-
- MASTER_ACTIVE_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_ACTIVE_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- MASTER_FINISHED_INITIALIZATION_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_FINISHED_INITIALIZATION_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
已过时。
- MASTER_HOSTNAME_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- MASTER_IMPL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for what master implementation to use.
- MASTER_INFO_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for master web API port
- MASTER_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for port master listens on.
- MASTER_SNAPSHOT_TIMEOUT_MILLIS - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- MASTER_START_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_START_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MASTER_TYPE_BACKUP - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for the master type being backup (waits for primary to go inactive).
- MasterAddressTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Manages the location of the current active Master for the RegionServer.
- MasterAddressTracker(ZKWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Construct a master address listener with the specified
zookeeper reference.
- masterAddressZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- MasterAnnotationReadingPriorityFunction - org.apache.hadoop.hbase.master中的类
-
Priority function specifically for the master.
- MasterAnnotationReadingPriorityFunction(RSRpcServices) - 类 的构造器org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- MasterAnnotationReadingPriorityFunction(RSRpcServices, Class<? extends RSRpcServices>) - 类 的构造器org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- MasterCoprocessor - org.apache.hadoop.hbase.coprocessor中的接口
-
- MasterCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- MasterCoprocessorHost - org.apache.hadoop.hbase.master中的类
-
Provides the coprocessor framework and environment for master oriented
operations.
- MasterCoprocessorHost(MasterServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- MasterCoprocessorService(CoprocessorService) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.MasterCoprocessorService
-
已过时。
- MasterDumpServlet - org.apache.hadoop.hbase.master中的类
-
- MasterDumpServlet() - 类 的构造器org.apache.hadoop.hbase.master.MasterDumpServlet
-
- MasterFileSystem - org.apache.hadoop.hbase.master中的类
-
This class abstracts a bunch of operations the HMaster needs to interact with
the underlying file system like creating the initial layout, checking file
system status, etc.
- MasterFileSystem(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.MasterFileSystem
-
- MasterMaintenanceModeTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks the master Maintenance Mode via ZK.
- MasterMaintenanceModeTracker(ZKWatcher) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
- masterMaintZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- MasterMobCompactionThread - org.apache.hadoop.hbase.master中的类
-
- MasterMobCompactionThread(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.MasterMobCompactionThread
-
- MasterNotRunningException - org.apache.hadoop.hbase中的异常错误
-
Thrown if the master is not running
- MasterNotRunningException() - 异常错误 的构造器org.apache.hadoop.hbase.MasterNotRunningException
-
default constructor
- MasterNotRunningException(String) - 异常错误 的构造器org.apache.hadoop.hbase.MasterNotRunningException
-
Constructor
- MasterNotRunningException(Exception) - 异常错误 的构造器org.apache.hadoop.hbase.MasterNotRunningException
-
Constructor taking another exception.
- MasterNotRunningException(String, Exception) - 异常错误 的构造器org.apache.hadoop.hbase.MasterNotRunningException
-
- MasterObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Defines coprocessor hooks for interacting with operations on the
HMaster process.
- MasterQuotaManager - org.apache.hadoop.hbase.quotas中的类
-
Master Quota Manager.
- MasterQuotaManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- MasterRpcServices - org.apache.hadoop.hbase.master中的类
-
Implements the master RPC services.
- MasterRpcServices(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.MasterRpcServices
-
- MasterServices - org.apache.hadoop.hbase.master中的接口
-
A curated subset of services provided by
HMaster.
- MasterSpaceQuotaObserver - org.apache.hadoop.hbase.quotas中的类
-
An observer to automatically delete space quotas when a table/namespace
are deleted.
- MasterSpaceQuotaObserver() - 类 的构造器org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- MasterStatusServlet - org.apache.hadoop.hbase.master中的类
-
The servlet responsible for rendering the index page of the
master.
- MasterStatusServlet() - 类 的构造器org.apache.hadoop.hbase.master.MasterStatusServlet
-
- MasterSwitchType - org.apache.hadoop.hbase.client中的枚举
-
Represents the master switch type
- MasterThread(HMaster, int) - 类 的构造器org.apache.hadoop.hbase.util.JVMClusterUtil.MasterThread
-
- MasterWalManager - org.apache.hadoop.hbase.master中的类
-
This class abstracts a bunch of operations the HMaster needs
when splitting log files e.g. finding log files, dirs etc.
- MasterWalManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.MasterWalManager
-
- MasterWalManager(Configuration, FileSystem, Path, MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.MasterWalManager
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.IncludeAllCompactionQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.MajorCompactionScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.MinorCompactionScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Determines if the caller should do one of several things:
seek/skip to the next row (MatchCode.SEEK_NEXT_ROW)
seek/skip to the next column (MatchCode.SEEK_NEXT_COL)
include the current KeyValue (MatchCode.INCLUDE)
ignore the current KeyValue (MatchCode.SKIP)
got to the next row (MatchCode.DONE)
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- matchColumn(Cell, long, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- matchCompilationUnit(CompilationUnitTree, VisitorState) - 类 中的方法org.apache.hadoop.hbase.errorprone.AlwaysPasses
-
- matchedColumn - 类 中的变量org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- matches(String) - 枚举 中的方法org.apache.hadoop.hbase.security.SaslUtil.QualityOfProtection
-
- matchingColumn(Cell, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingColumn(Cell, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingColumn(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingColumn(Cell, byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- matchingFamily(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingFamily(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingFamily(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingFamily(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- matchingQualifier(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingQualifier(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Finds if the qualifier part of the cell and the KV serialized byte[] are equal
- matchingQualifier(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingQualifier(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Finds if the qualifier part of the cell and the KV serialized byte[] are equal
- matchingRow(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingRow(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingRow(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingRowColumn(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Compares the row and column of two keyvalues for equality
- matchingRowColumn(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compares the row and column of two keyvalues for equality
- matchingRowColumnBytes(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingRows(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingRows(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Compares the row of two keyvalues for equality
- matchingRows(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compares the row of two keyvalues for equality
- matchingRows(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KVComparator
-
已过时。
Compare rows.
- matchingRows(Cell, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- matchingTimestamp(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingType(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingType(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- matchingValue(Cell, Cell) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingValue(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- matchingValue(Cell, Cell, int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- matchingValue(Tag, Tag) - 接口 中的静态方法org.apache.hadoop.hbase.Tag
-
Matches the value part of given tags
- matchReplicationScope(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.TableDescriptor
-
Check if the table's cfs' replication scope matched with the replication state
- MAX_ALLOC_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- MAX_ALLOC_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- MAX_ATTEMPTS_FN_GENERATION - 类 中的静态变量org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- MAX_AVERAGE_REGION_SIZE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
In auto-balance, we split input by ave region size, if calculated region size is too big, we can set it.
- MAX_BACKOFF_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.backoff.ExponentialClientBackoffPolicy
-
- MAX_CHUNK_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
The maximum size guideline for index blocks (both leaf, intermediate, and
root).
- MAX_COMPACTION_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- MAX_COMPACTION_QUEUE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- MAX_FILES_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The maximum number of files to compact within a stripe; same as for regular compaction.
- MAX_FILESIZE - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Used by HBase Shell interface to access this metadata
attribute which denotes the maximum size of the store file after which a
region split occurs.
- MAX_FILESIZE - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- MAX_FLUSH_PER_CHANGES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
The following MAX_FLUSH_PER_CHANGES is large enough because each KeyValue has 20+ bytes
overhead.
- MAX_FLUSH_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- MAX_FLUSH_QUEUE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- MAX_FORMAT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Maximum supported HFile format version
- MAX_KEYVALUE_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- MAX_KEYVALUE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.ConnectionConfiguration
-
- MAX_MEMSTORE_TS_KEY - 接口 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Max memstore (mvcc) timestamp in FileInfo
- MAX_POOL_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.ByteBufferPool
-
- MAX_PRECISION - 类 中的静态变量org.apache.hadoop.hbase.util.OrderedBytes
-
Max precision guaranteed to fit into a long.
- MAX_REGION_SPLIT_IMBALANCE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
When splitting region, the maximum size imbalance to allow in an attempt to split at a
stripe boundary, so that no files go to both regions.
- MAX_REQUEST_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MAX_ROW_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Max length a row can have because of the limitation in TFile.
- MAX_SEQ_ID_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Max Sequence ID in FileInfo
- MAX_SERVER_PER_MESSAGE - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
We want to limit the size of the protobuf message sent, do fit into a single packet.
- MAX_SIZE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MAX_STORE_FILE_AGE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAX_STORE_FILE_AGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MAX_TAG_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.Tag
-
- MAX_TAGS_LEN - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- MAX_TAGS_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.RawCell
-
- MAX_TYPE - 类 中的静态变量org.apache.hadoop.hbase.util.CellHashKey
-
- MAX_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- maxCellIdx - 类 中的变量org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- maxColumn - 类 中的变量org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- maxColumnInclusive - 类 中的变量org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- MAXIMUM_KEY_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Maximum length of key in HFile.
- MAXIMUM_VALUE_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum value length, enforced on KeyValue construction
- maxKeys - 类 中的变量org.apache.hadoop.hbase.util.BloomFilterChunk
-
Max Keys expected for the bloom
- maxKeyValueSize(int) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
Override the maximum key-value size specified by the provided
Connection's
Configuration instance, via the configuration key
hbase.client.keyvalue.maxsize.
- maxLogs - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- maxMemstoreTS - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- maxQueueSizeInBytes - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
Maximum size in bytes of the currently queued and running Calls.
- maxReadPointToTrackVersions - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
readPoint over which the KVs are unconditionally included
- maxRequestSize - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- maxRetries - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- maxScannerResultSize - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- maxthreads(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionMover.RegionMoverBuilder
-
Set the max number of threads that will be used to move regions
- maxThroughputLowerBound - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- maxThroughputUpperBound - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- maxVersions - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- maybeCloneWithAllocator(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
If the segment has a memory allocator the cell is being cloned to this space, and returned;
otherwise the given cell is returned
- maybeCloneWithAllocator(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
If the segment has a memory allocator the cell is being cloned to this space, and returned;
otherwise the given cell is returned
When a cell's size is too big (bigger than maxAlloc), it is not allocated on MSLAB.
- mayHaveClusterIssues() - 异常错误 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- mayHaveMoreCellsInRow() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
For scanning large rows, the RS may choose to return the cells chunk by chunk to prevent OOM
or timeout.
- mBeanServer - 类 中的变量org.apache.hadoop.hbase.http.jmx.JMXJsonServlet
-
MBean server.
- MD5_HEX_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
- MD5Hash - org.apache.hadoop.hbase.util中的类
-
Utility class for MD5
MD5 hash produces a 128-bit digest.
- MD5Hash() - 类 的构造器org.apache.hadoop.hbase.util.MD5Hash
-
- mechanismName - 枚举 中的变量org.apache.hadoop.hbase.security.AuthMethod
-
- MEMCACHED_CONFIG_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MEMCACHED_DEFAULT_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MEMCACHED_OPTIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MEMCACHED_OPTIMIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MEMCACHED_OPTIMIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MEMCACHED_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MemcachedBlockCache - org.apache.hadoop.hbase.io.hfile中的类
-
Class to store blocks into memcached.
- MemcachedBlockCache(Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- MemoryCompactionPolicy - org.apache.hadoop.hbase中的枚举
-
Enum describing all possible memory compaction policies
- MemorySizeUtil - org.apache.hadoop.hbase.io.util中的类
-
Util class to calculate memory size for memstore, block cache(L1, L2) of RS.
- MemorySizeUtil() - 类 的构造器org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- memstore - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- MemStore - org.apache.hadoop.hbase.regionserver中的接口
-
The MemStore holds in-memory modifications to the Store.
- MEMSTORE_CLASS_NAME - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- MEMSTORE_FLUSH_PER_CHANGES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Conf key to force a flush if there are already enough changes for one region in memstore
- MEMSTORE_FLUSHSIZE - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Used by HBase Shell interface to access this metadata
attribute which represents the maximum size of the memstore after which its
contents are flushed onto the disk.
- MEMSTORE_FLUSHSIZE - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- MEMSTORE_PERIODIC_FLUSH_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Conf key for the periodic flush interval
- MEMSTORE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MEMSTORE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- MEMSTORE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MEMSTORE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- MEMSTORE_SIZE_GAUGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- MEMSTORE_SIZE_GAUGE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
- MEMSTORE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- MEMSTORE_SIZE_LOWER_LIMIT_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- MEMSTORE_SIZE_LOWER_LIMIT_OLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- MEMSTORE_SIZE_MAX_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- MEMSTORE_SIZE_MIN_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- MEMSTORE_SIZE_OLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
- MemStoreCompactionStrategy - org.apache.hadoop.hbase.regionserver中的类
-
MemStoreCompactionStrategy is the root of a class hierarchy which defines the strategy for
choosing the next action to apply in an (in-memory) memstore compaction.
- MemStoreCompactionStrategy(Configuration, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- MemStoreCompactionStrategy.Action - org.apache.hadoop.hbase.regionserver中的枚举
-
Types of actions to be done on the pipeline upon MemStoreCompaction invocation.
- MemStoreCompactor - org.apache.hadoop.hbase.regionserver中的类
-
The ongoing MemStore Compaction manager, dispatches a solo running compaction and interrupts
the compaction if requested.
- MemStoreCompactor(CompactingMemStore, MemoryCompactionPolicy) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
- MemStoreCompactorSegmentsIterator - org.apache.hadoop.hbase.regionserver中的类
-
The MemStoreCompactorSegmentsIterator extends MemStoreSegmentsIterator
and performs the scan for compaction operation meaning it is based on SQM
- MemStoreCompactorSegmentsIterator(List<ImmutableSegment>, CellComparator, int, HStore) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreCompactorSegmentsIterator
-
- MemStoreLAB - org.apache.hadoop.hbase.regionserver中的接口
-
A memstore-local allocation buffer.
- MemStoreLABImpl - org.apache.hadoop.hbase.regionserver中的类
-
A memstore-local allocation buffer.
- MemStoreLABImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- MemStoreLABImpl(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreLABImpl
-
- MemStoreMergerSegmentsIterator - org.apache.hadoop.hbase.regionserver中的类
-
The MemStoreMergerSegmentsIterator extends MemStoreSegmentsIterator
and performs the scan for simple merge operation meaning it is NOT based on SQM
- MemStoreMergerSegmentsIterator(List<ImmutableSegment>, CellComparator, int) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreMergerSegmentsIterator
-
- MemStoreSegmentsIterator - org.apache.hadoop.hbase.regionserver中的类
-
The MemStoreSegmentsIterator is designed to perform one iteration over given list of segments
For another iteration new instance of MemStoreSegmentsIterator needs to be created
The iterator is not thread-safe and must have only one instance per MemStore
in each period of time
- MemStoreSegmentsIterator(int) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreSegmentsIterator
-
- MemStoreSize - org.apache.hadoop.hbase.regionserver中的类
-
Data structure of three longs.
- MemStoreSizing - org.apache.hadoop.hbase.regionserver中的接口
-
Accounting of current heap and data sizes.
- memStoreSizing - 类 中的变量org.apache.hadoop.hbase.regionserver.Segment
-
- MemStoreSnapshot - org.apache.hadoop.hbase.regionserver中的类
-
Holds details of the snapshot taken on a MemStore.
- MemStoreSnapshot(long, ImmutableSegment) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- merge(Configuration, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Merge two configurations.
- merge(QuotaSettings) - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- MERGE_METRIC_PREFIX - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- MERGE_PLAN_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MERGE_PLAN_COUNT_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- MERGEA_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The lower-half merge region column qualifier
- mergeableSize - 类 中的变量org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
- MERGEB_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The upper-half merge region column qualifier
- mergeDelimitedFrom(Message.Builder, InputStream) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeDelimitedFrom avoid the hard-coded 64MB limit for decoding
buffers
- mergeFrom(Message.Builder, InputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeFrom avoids the hard-coded 64MB limit for decoding
buffers where the message size is known
- mergeFrom(Message.Builder, InputStream) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeFrom avoids the hard-coded 64MB limit for decoding
buffers where the message size is not known
- mergeFrom(Message.Builder, ByteString) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeFrom avoids the hard-coded 64MB limit for decoding
buffers when working with ByteStrings
- mergeFrom(Message.Builder, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeFrom avoids the hard-coded 64MB limit for decoding
buffers when working with byte arrays
- mergeFrom(Message.Builder, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
This version of protobuf's mergeFrom avoids the hard-coded 64MB limit for decoding
buffers when working with byte arrays
- mergeFrom(Message.Builder, CodedInputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- mergeLocations(RegionLocations) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Merges this RegionLocations list with the given list assuming
same range, and keeping the most up to date version of the
HRegionLocation entries from either list according to seqNum.
- mergeRegionDirs(Path, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Merge hdfs data by moving from contained HbckInfo into targetRegionDir.
- MergeRegionException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Thrown when something is wrong in trying to merge two regions.
- MergeRegionException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.MergeRegionException
-
default constructor
- MergeRegionException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.MergeRegionException
-
Constructor
- MergeRegionException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.MergeRegionException
-
- mergeRegions(byte[], byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- mergeRegions(byte[], byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Merge two regions.
- mergeRegions(byte[], byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- mergeRegions(RegionInfo[], boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- mergeRegions(RegionInfo[], boolean, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Merge regions in a table.
- mergeRegions(Connection, RegionInfo, RegionInfo, long, RegionInfo, long, ServerName, int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Merge the two regions into one in an atomic operation.
- mergeRegionsAsync(byte[], byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Merge two regions.
- mergeRegionsAsync(byte[][], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Merge regions.
- mergeRegionsAsync(byte[], byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Merge two regions.
- mergeRegionsAsync(byte[][], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Merge two regions.
- mergeRegionsSync(byte[], byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Merge two regions.
- mergeStoreFile(RegionInfo, String, HStoreFile, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Write out a merge reference under the given merges directory.
- mergeSwitch(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Turn the merge switch on or off.
- mergeSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Turn the Merge switch on or off.
- mergeSwitch(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- mergeTableRegions(RpcController, MasterProtos.MergeTableRegionsRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- mergeTableRegions(RpcController, MasterProtos.MergeTableRegionsRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- META_COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.CellComparatorImpl
-
- META_COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- META_FAMILY_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- META_QUALIFIER_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- META_REPLICA_ID_DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.MetaTableAccessor
-
The delimiter for meta columns for replicaIds > 0
- META_REPLICAS_NUM - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- META_ROW_DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
delimiter used between portions of a region name
- META_SPLIT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- META_SPLIT_SIZE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- META_SPLIT_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- META_SPLIT_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- META_TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.TableName
-
The hbase:meta table's name.
- META_VERSION - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The current version of the meta table
- META_VERSION_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The meta table version column qualifier.
- META_WAL_PROVIDER - 类 中的静态变量org.apache.hadoop.hbase.wal.WALFactory
-
- META_WAL_PROVIDER_ID - 类 中的静态变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
The hbase:meta region's WAL filename extension
- META_ZNODE_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- MetaCache - org.apache.hadoop.hbase.client中的类
-
A cache implementation for region locations from meta.
- MetaCache(MetricsConnection) - 类 的构造器org.apache.hadoop.hbase.client.MetaCache
-
- metaCacheHits - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- metaCacheMisses - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- metaCacheNumClearRegion - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- metaCacheNumClearServer - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- MetaCellComparator() - 类 的构造器org.apache.hadoop.hbase.CellComparatorImpl.MetaCellComparator
-
- MetaComparator() - 类 的构造器org.apache.hadoop.hbase.KeyValue.MetaComparator
-
已过时。
- METADATA - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- metaData - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Writables representing meta block data.
- METAFAMILY - 类 中的静态变量org.apache.hadoop.hbase.wal.WALEdit
-
- MetaMutationAnnotation - org.apache.hadoop.hbase中的注释类型
-
The field or the parameter to which this annotation can be applied only when it
holds mutations for hbase:meta table.
- metaNames - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Meta block names.
- metaRegionExists(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks if meta region exists
- metaReplicaZNodes - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- METAROW - 类 中的静态变量org.apache.hadoop.hbase.wal.WALEdit
-
- MetaTableAccessor - org.apache.hadoop.hbase中的类
-
Read/write operations on region and assignment information store in hbase:meta.
- MetaTableAccessor() - 类 的构造器org.apache.hadoop.hbase.MetaTableAccessor
-
- MetaTableAccessor.CloseableVisitor - org.apache.hadoop.hbase中的接口
-
Implementations 'visit' a catalog table row but with close() at the end.
- MetaTableAccessor.DefaultVisitorBase - org.apache.hadoop.hbase中的类
-
A Visitor that skips offline regions and split parents
- MetaTableAccessor.QueryType - org.apache.hadoop.hbase中的枚举
-
- MetaTableAccessor.ReplicationBarrierResult - org.apache.hadoop.hbase中的类
-
- MetaTableAccessor.TableVisitorBase - org.apache.hadoop.hbase中的类
-
A Visitor for a table.
- MetaTableAccessor.Visitor - org.apache.hadoop.hbase中的接口
-
Implementations 'visit' a catalog table row.
- metaTableLocator - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- MetaTableLocator - org.apache.hadoop.hbase.zookeeper中的类
-
Utility class to perform operation (get/wait for/verify/set/delete) on znode in ZooKeeper
which keeps hbase:meta region server location.
- MetaTableLocator() - 类 的构造器org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
- metaZNodePrefix - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- Methods - org.apache.hadoop.hbase.util中的类
-
- Methods() - 类 的构造器org.apache.hadoop.hbase.util.Methods
-
- metrics - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- metrics - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
The context metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
The context metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterProcSource
-
The context metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
The context metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
The context metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
The name of the metrics context that metrics will be under.
- METRICS_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
The name of the metrics context that metrics will be under.
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterProcSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
Description
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- METRICS_DESCRIPTION - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Description
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterProcSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
The name of the metrics context that metrics will be under in jmx
- METRICS_JMX_CONTEXT - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
The name of the metrics context that metrics will be under in jmx.
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.io.MetricsIOSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterProcSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerQuotaSource
-
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
The name of the metrics
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- METRICS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
The name of the metrics
- METRICS_RIT_STUCK_WARNING_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Region in Transition metrics threshold time
- MetricsAssignmentManager - org.apache.hadoop.hbase.master中的类
-
- MetricsAssignmentManager() - 类 的构造器org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- MetricsAssignmentManagerSource - org.apache.hadoop.hbase.master中的接口
-
- MetricsAssignmentManagerSourceImpl - org.apache.hadoop.hbase.master中的类
-
- MetricsAssignmentManagerSourceImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- MetricsAssignmentManagerSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- MetricsConnection - org.apache.hadoop.hbase.client中的类
-
This class is for maintaining the various connection statistics and publishing them through
the metrics interfaces.
- MetricsConnection.CallStats - org.apache.hadoop.hbase.client中的类
-
A container class for collecting details about the RPC call as it percolates.
- MetricsConnection.CallTracker - org.apache.hadoop.hbase.client中的类
-
- MetricsConnection.RegionStats - org.apache.hadoop.hbase.client中的类
-
- MetricsConnection.RunnerStats - org.apache.hadoop.hbase.client中的类
-
- MetricsCoprocessor - org.apache.hadoop.hbase.coprocessor中的类
-
Utility class for tracking metrics for various types of coprocessors.
- MetricsCoprocessor() - 类 的构造器org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- MetricsHBaseServer - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHBaseServer(String, MetricsHBaseServerWrapper) - 类 的构造器org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- MetricsHBaseServerSource - org.apache.hadoop.hbase.ipc中的接口
-
- MetricsHBaseServerSourceFactory - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHBaseServerSourceFactory() - 类 的构造器org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceFactory
-
- MetricsHBaseServerSourceFactoryImpl - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHBaseServerSourceFactoryImpl() - 类 的构造器org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceFactoryImpl
-
- MetricsHBaseServerSourceImpl - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHBaseServerSourceImpl(String, String, String, String, MetricsHBaseServerWrapper) - 类 的构造器org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- MetricsHBaseServerWrapper - org.apache.hadoop.hbase.ipc中的接口
-
- MetricsHBaseServerWrapperImpl - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHeapMemoryManager - org.apache.hadoop.hbase.regionserver中的类
-
This class is for maintaining the various regionserver's heap memory manager statistics and
publishing them through the metrics interfaces.
- MetricsHeapMemoryManager() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
- MetricsHeapMemoryManager(MetricsHeapMemoryManagerSource) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
- MetricsHeapMemoryManagerSource - org.apache.hadoop.hbase.regionserver中的接口
-
This interface will be implemented by a MetricsSource that will export metrics from
HeapMemoryManager in RegionServer into the hadoop metrics system.
- MetricsHeapMemoryManagerSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
Hadoop2 implementation of MetricsHeapMemoryManagerSource.
- MetricsHeapMemoryManagerSourceImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- MetricsHeapMemoryManagerSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- MetricsIO - org.apache.hadoop.hbase.io中的类
-
- MetricsIO(MetricsIOWrapper) - 类 的构造器org.apache.hadoop.hbase.io.MetricsIO
-
- MetricsIOSource - org.apache.hadoop.hbase.io中的接口
-
- MetricsIOSourceImpl - org.apache.hadoop.hbase.io中的类
-
- MetricsIOSourceImpl(MetricsIOWrapper) - 类 的构造器org.apache.hadoop.hbase.io.MetricsIOSourceImpl
-
- MetricsIOSourceImpl(String, String, String, String, MetricsIOWrapper) - 类 的构造器org.apache.hadoop.hbase.io.MetricsIOSourceImpl
-
- MetricsIOWrapper - org.apache.hadoop.hbase.io中的接口
-
- MetricsIOWrapperImpl - org.apache.hadoop.hbase.io中的类
-
- MetricsIOWrapperImpl() - 类 的构造器org.apache.hadoop.hbase.io.MetricsIOWrapperImpl
-
- MetricsMaster - org.apache.hadoop.hbase.master中的类
-
This class is for maintaining the various master statistics
and publishing them through the metrics interfaces.
- MetricsMaster(MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMaster
-
- MetricsMasterFileSystem - org.apache.hadoop.hbase.master中的类
-
- MetricsMasterFileSystem() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
- MetricsMasterFileSystemSource - org.apache.hadoop.hbase.master中的接口
-
- MetricsMasterFilesystemSourceImpl - org.apache.hadoop.hbase.master中的类
-
- MetricsMasterFilesystemSourceImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterFilesystemSourceImpl
-
- MetricsMasterFilesystemSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterFilesystemSourceImpl
-
- MetricsMasterProcSource - org.apache.hadoop.hbase.master中的接口
-
Interface that classes that expose metrics about the master will implement.
- MetricsMasterProcSourceFactory - org.apache.hadoop.hbase.master中的接口
-
Interface of a factory to create MetricsMasterSource when given a MetricsMasterWrapper
- MetricsMasterProcSourceFactoryImpl - org.apache.hadoop.hbase.master中的类
-
Factory to create MetricsMasterProcSource when given a MetricsMasterWrapper
- MetricsMasterProcSourceFactoryImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterProcSourceFactoryImpl
-
- MetricsMasterProcSourceImpl - org.apache.hadoop.hbase.master中的类
-
Hadoop2 implementation of MetricsMasterSource.
- MetricsMasterProcSourceImpl(MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterProcSourceImpl
-
- MetricsMasterProcSourceImpl(String, String, String, String, MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterProcSourceImpl
-
- MetricsMasterQuotaSource - org.apache.hadoop.hbase.master中的接口
-
A collection of exposed metrics for space quotas from the HBase Master.
- MetricsMasterQuotaSourceFactory - org.apache.hadoop.hbase.master中的接口
-
Interface of a factory to create MetricsMasterQuotaSource when given a MetricsMasterWrapper.
- MetricsMasterQuotaSourceFactoryImpl - org.apache.hadoop.hbase.master中的类
-
Factory to create MetricsMasterQuotaSource instances when given a MetricsMasterWrapper.
- MetricsMasterQuotaSourceFactoryImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceFactoryImpl
-
- MetricsMasterQuotaSourceImpl - org.apache.hadoop.hbase.master中的类
-
- MetricsMasterQuotaSourceImpl(MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- MetricsMasterQuotaSourceImpl(String, String, String, String, MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterQuotaSourceImpl
-
- MetricsMasterSource - org.apache.hadoop.hbase.master中的接口
-
Interface that classes that expose metrics about the master will implement.
- MetricsMasterSourceFactory - org.apache.hadoop.hbase.master中的接口
-
Interface of a factory to create MetricsMasterSource when given a MetricsMasterWrapper
- MetricsMasterSourceFactoryImpl - org.apache.hadoop.hbase.master中的类
-
Factory to create MetricsMasterSource when given a MetricsMasterWrapper
- MetricsMasterSourceFactoryImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterSourceFactoryImpl
-
- MetricsMasterSourceImpl - org.apache.hadoop.hbase.master中的类
-
Hadoop2 implementation of MetricsMasterSource.
- MetricsMasterSourceImpl(MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- MetricsMasterSourceImpl(String, String, String, String, MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterSourceImpl
-
- MetricsMasterWrapper - org.apache.hadoop.hbase.master中的接口
-
This is the interface that will expose information to hadoop1/hadoop2 implementations of the
MetricsMasterSource.
- MetricsMasterWrapperImpl - org.apache.hadoop.hbase.master中的类
-
Impl for exposing HMaster Information through JMX
- MetricsMasterWrapperImpl(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- MetricsRegion - org.apache.hadoop.hbase.regionserver中的类
-
This is the glue between the HRegion and whatever hadoop shim layer
is loaded (hbase-hadoop1-compat or hbase-hadoop2-compat).
- MetricsRegion(MetricsRegionWrapper) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- MetricsRegionAggregateSource - org.apache.hadoop.hbase.regionserver中的接口
-
This interface will be implemented by a MetricsSource that will export metrics from
multiple regions into the hadoop metrics system.
- MetricsRegionAggregateSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsRegionAggregateSourceImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSourceImpl
-
- MetricsRegionAggregateSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSourceImpl
-
- MetricsRegionServer - org.apache.hadoop.hbase.regionserver中的类
-
This class is for maintaining the various regionserver statistics
and publishing them through the metrics interfaces.
- MetricsRegionServer(MetricsRegionServerWrapper, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- MetricsRegionServerQuotaSource - org.apache.hadoop.hbase.regionserver中的接口
-
A collection of exposed metrics for space quotas from an HBase RegionServer.
- MetricsRegionServerSource - org.apache.hadoop.hbase.regionserver中的接口
-
Interface for classes that expose metrics about the regionserver.
- MetricsRegionServerSourceFactory - org.apache.hadoop.hbase.regionserver中的接口
-
Interface of a factory to create Metrics Sources used inside of regionservers.
- MetricsRegionServerSourceFactoryImpl - org.apache.hadoop.hbase.regionserver中的类
-
Factory to create MetricsRegionServerSource when given a MetricsRegionServerWrapper
- MetricsRegionServerSourceFactoryImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactoryImpl
-
- MetricsRegionServerSourceFactoryImpl.FactoryStorage - org.apache.hadoop.hbase.regionserver中的枚举
-
- MetricsRegionServerSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
Hadoop2 implementation of MetricsRegionServerSource.
- MetricsRegionServerSourceImpl(MetricsRegionServerWrapper) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- MetricsRegionServerSourceImpl(String, String, String, String, MetricsRegionServerWrapper) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceImpl
-
- MetricsRegionServerWrapper - org.apache.hadoop.hbase.regionserver中的接口
-
This is the interface that will expose RegionServer information to hadoop1/hadoop2
implementations of the MetricsRegionServerSource.
- MetricsRegionSource - org.apache.hadoop.hbase.regionserver中的接口
-
This interface will be implemented to allow single regions to push metrics into
MetricsRegionAggregateSource that will in turn push data to the Hadoop metrics system.
- MetricsRegionSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsRegionSourceImpl(MetricsRegionWrapper, MetricsRegionAggregateSourceImpl) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionSourceImpl
-
- MetricsRegionWrapper - org.apache.hadoop.hbase.regionserver中的接口
-
Interface of class that will wrap an HRegion and export numbers so they can be
used in MetricsRegionSource
- MetricsRegionWrapperImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsRegionWrapperImpl(HRegion) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsREST - org.apache.hadoop.hbase.rest中的类
-
- MetricsREST() - 类 的构造器org.apache.hadoop.hbase.rest.MetricsREST
-
- MetricsRESTSource - org.apache.hadoop.hbase.rest中的接口
-
Interface of the Metrics Source that will export data to Hadoop's Metrics2 system.
- MetricsRESTSourceImpl - org.apache.hadoop.hbase.rest中的类
-
Hadoop Two implementation of a metrics2 source that will export metrics from the Rest server to
the hadoop metrics2 subsystem.
- MetricsRESTSourceImpl() - 类 的构造器org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- MetricsRESTSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.rest.MetricsRESTSourceImpl
-
- MetricsSnapshot - org.apache.hadoop.hbase.master中的类
-
- MetricsSnapshot() - 类 的构造器org.apache.hadoop.hbase.master.MetricsSnapshot
-
- MetricsSnapshotSource - org.apache.hadoop.hbase.master中的接口
-
- MetricsSnapshotSourceImpl - org.apache.hadoop.hbase.master中的类
-
- MetricsSnapshotSourceImpl() - 类 的构造器org.apache.hadoop.hbase.master.MetricsSnapshotSourceImpl
-
- MetricsSnapshotSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.master.MetricsSnapshotSourceImpl
-
- MetricsTable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTable(MetricsTableWrapperAggregate) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTable
-
- MetricsTableAggregateSource - org.apache.hadoop.hbase.regionserver中的接口
-
This interface will be implemented by a MetricsSource that will export metrics from
multiple regions of a table into the hadoop metrics system.
- MetricsTableAggregateSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableAggregateSourceImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSourceImpl
-
- MetricsTableAggregateSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSourceImpl
-
- MetricsTableLatencies - org.apache.hadoop.hbase.regionserver中的接口
-
Latency metrics for a specific table in a RegionServer.
- MetricsTableLatenciesImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableLatenciesImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableLatenciesImpl
-
- MetricsTableLatenciesImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableLatenciesImpl
-
- MetricsTableLatenciesImpl.TableHistograms - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableSource - org.apache.hadoop.hbase.regionserver中的接口
-
This interface will be implemented to allow region server to push table metrics into
MetricsRegionAggregateSource that will in turn push data to the Hadoop metrics system.
- MetricsTableSourceImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableSourceImpl(String, MetricsTableAggregateSourceImpl, MetricsTableWrapperAggregate) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableSourceImpl
-
- MetricsTableWrapperAggregate - org.apache.hadoop.hbase.regionserver中的接口
-
Interface of class that will wrap a MetricsTableSource and export numbers so they can be
used in MetricsTableSource
- MetricsTableWrapperAggregateImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableWrapperAggregateImpl(HRegionServer) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsWAL - org.apache.hadoop.hbase.regionserver.wal中的类
-
Class used to push numbers about the WAL into the metrics subsystem.
- MetricsWAL() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- MetricsWALSource - org.apache.hadoop.hbase.regionserver.wal中的接口
-
Interface of the source that will export metrics about the region server's WAL.
- MetricsWALSourceImpl - org.apache.hadoop.hbase.regionserver.wal中的类
-
Class that transitions metrics from MetricsWAL into the metrics subsystem.
- MetricsWALSourceImpl() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- MetricsWALSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.MetricsWALSourceImpl
-
- MetricsZooKeeperSource - org.apache.hadoop.hbase.zookeeper中的接口
-
Interface of the source that will export metrics about the ZooKeeper.
- MetricsZooKeeperSourceImpl - org.apache.hadoop.hbase.zookeeper中的类
-
Class that transitions metrics from MetricsZooKeeper into the metrics subsystem.
- MetricsZooKeeperSourceImpl() - 类 的构造器org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- MetricsZooKeeperSourceImpl(String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- midKey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- midKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- midKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- midKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- MIGRATION_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Any artifacts left from migration can be moved here
- MIMETYPE_BINARY - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_HTML - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_JSON - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_PROTOBUF - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_PROTOBUF_IETF - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_TEXT - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIMETYPE_XML - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- MIN_CLIENT_REQUEST_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
Minimum allowable timeout (in milliseconds) in rpc request's header.
- MIN_CORE_POOL_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ChoreService
-
The minimum number of threads in the core pool of the underlying ScheduledThreadPoolExecutor
- MIN_FILES_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The minimum number of files to compact within a stripe; same as for regular compaction.
- MIN_FILES_L0_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The minimum number of files to compact when compacting L0; same as minFiles for regular
compaction.
- MIN_FORMAT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Minimum supported HFile format version
- MIN_FORMAT_VERSION_WITH_TAGS - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Minimum HFile format version with support for persisting cell tags
- MIN_INDEX_NUM_ENTRIES_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
Minimum number of entries in a single index block.
- MIN_KEEP_SEQID_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
At least to keep MVCC values in hfiles for 5 days
- MIN_NUM_HFILE_PATH_LEVELS - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
We assume that HFile path ends with
ROOT_DIR/TABLE_NAME/REGION_NAME/CF_NAME/HFILE, so it has at least this
many levels of nesting.
- MIN_STORE_FILE_AGE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MIN_STORE_FILE_AGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MIN_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- MIN_VERSIONS - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- MIN_WAIT_TIME - 类 中的静态变量org.apache.hadoop.hbase.regionserver.Leases
-
- MIN_WRITE_BUFFER_PERIODIC_FLUSH_TIMERTICK_MS - 接口 中的静态变量org.apache.hadoop.hbase.client.BufferedMutator
-
Having the timer tick run more often that once every 100ms is needless and will
probably cause too many timer events firing having a negative impact on performance.
- minCellIdx - 类 中的变量org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- minClientRequestTimeout - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- minColumn - 类 中的变量org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- minColumnInclusive - 类 中的变量org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- MiniBatchOperationInProgress<T> - org.apache.hadoop.hbase.regionserver中的类
-
Wraps together the mutations which are applied as a batch to the region and their operation
status and WALEdits.
- MiniBatchOperationInProgress(T[], OperationStatus[], WALEdit[], int, int, int) - 类 的构造器org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- minIdleTimeBeforeClose - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- MiniZooKeeperCluster - org.apache.hadoop.hbase.zookeeper中的类
-
TODO: Most of the code in this class is ripped from ZooKeeper tests.
- MiniZooKeeperCluster() - 类 的构造器org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- MiniZooKeeperCluster(Configuration) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- MINOR_VERSION - 异常错误 中的静态变量org.apache.hadoop.hbase.exceptions.RequestTooBigException
-
- MINOR_VERSION_NO_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
In HFile minor version that does not support checksums
- MINOR_VERSION_WITH_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Minor versions in HFile starting with this number have hbase checksums
- MinorCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for minor compaction.
- MinorCompactionScanQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.MinorCompactionScanQueryMatcher
-
- minSequenceId - 类 中的变量org.apache.hadoop.hbase.regionserver.Segment
-
- minSizeForReservoirUse - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MINUS_SIGN - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII for Minus Sign
- MINUTE_IN_SECONDS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- MirroringTableStateManager - org.apache.hadoop.hbase.master中的类
-
- MirroringTableStateManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.MirroringTableStateManager
-
已过时。
- miss(boolean, boolean, BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- MissingSnapshotViolationPolicyEnforcement - org.apache.hadoop.hbase.quotas.policies中的类
-
- MOB_CACHE_BLOCKS - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_CACHE_EVICT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_CACHE_EVICT_REMAIN_RATIO - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_CELLS_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Key for the number of mob cells in metadata
- MOB_CLEANER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_COMPACT_PARTITION_POLICY - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- MOB_COMPACT_PARTITION_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- MOB_COMPACT_PARTITION_POLICY_BYTES - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- MOB_COMPACTION_BATCH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
The max number of the mob files that is allowed in a batch of the mob compaction.
- MOB_COMPACTION_CHORE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
The period that MobCompactionChore runs.
- MOB_COMPACTION_MERGEABLE_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
If the size of a mob file is less than this value, it's regarded as a small file and needs to
be merged in mob compaction.
- MOB_COMPACTION_THREADS_MAX - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
The max number of threads used in MobCompactor.
- MOB_COMPACTOR_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_DELFILE_MAX_COUNT - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
The max number of del files that is allowed in the mob file compaction.
- MOB_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_FILE_CACHE_ACCESS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_ACCESS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_EVICTED_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_EVICTED_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_HIT_PERCENT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_HIT_PERCENT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_MISS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_MISS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FILE_CACHE_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_FLUSH_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FLUSH_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FLUSHED_CELLS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FLUSHED_CELLS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FLUSHED_CELLS_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_FLUSHED_CELLS_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_REF_TAG - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_REFERENCE_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.TagType
-
- MOB_REGION_NAME - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_REGION_NAME_BYTES - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_SCAN_CELLS_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_SCAN_CELLS_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_SCAN_CELLS_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_SCAN_CELLS_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- MOB_SCAN_RAW - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_SCAN_REF_ONLY - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_TABLE_LOCK_SUFFIX - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- MOB_TABLE_NAME_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.TagType
-
- MOB_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- MOB_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- MOB_THRESHOLD_BYTES - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- MobCacheConfig - org.apache.hadoop.hbase.mob中的类
-
The cache configuration for the mob.
- MobCacheConfig(Configuration, ColumnFamilyDescriptor) - 类 的构造器org.apache.hadoop.hbase.mob.MobCacheConfig
-
- MobCacheConfig(Configuration) - 类 的构造器org.apache.hadoop.hbase.mob.MobCacheConfig
-
- MobCompactionChore - org.apache.hadoop.hbase.master中的类
-
The Class MobCompactChore for running compaction regularly to merge small mob files.
- MobCompactionChore(HMaster, int) - 类 的构造器org.apache.hadoop.hbase.master.MobCompactionChore
-
- MobCompactionRequest - org.apache.hadoop.hbase.mob.compactions中的类
-
The compaction request for mob files.
- MobCompactionRequest() - 类 的构造器org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
- MobCompactionRequest.CompactionType - org.apache.hadoop.hbase.mob.compactions中的枚举
-
- MobCompactor - org.apache.hadoop.hbase.mob.compactions中的类
-
A mob compactor to directly compact the mob files.
- MobCompactor(Configuration, FileSystem, TableName, ColumnFamilyDescriptor, ExecutorService) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- MobCompactPartitionPolicy - org.apache.hadoop.hbase.client中的枚举
-
Enum describing the mob compact partition policy types.
- MobConstants - org.apache.hadoop.hbase.mob中的类
-
The constants used in mob.
- mobFamilyDir - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- MobFile - org.apache.hadoop.hbase.mob中的类
-
The mob file.
- MobFile() - 类 的构造器org.apache.hadoop.hbase.mob.MobFile
-
- MobFile(HStoreFile) - 类 的构造器org.apache.hadoop.hbase.mob.MobFile
-
- MobFileCache - org.apache.hadoop.hbase.mob中的类
-
The cache for mob files.
- MobFileCache(Configuration) - 类 的构造器org.apache.hadoop.hbase.mob.MobFileCache
-
- MobFileName - org.apache.hadoop.hbase.mob中的类
-
The mob file name.
- mobStore - 类 中的变量org.apache.hadoop.hbase.regionserver.ReversedMobStoreScanner
-
- MobStoreEngine - org.apache.hadoop.hbase.mob中的类
-
MobStoreEngine creates the mob specific compactor, and store flusher.
- MobStoreEngine() - 类 的构造器org.apache.hadoop.hbase.mob.MobStoreEngine
-
- MobStoreScanner - org.apache.hadoop.hbase.regionserver中的类
-
Scanner scans both the memstore and the MOB Store.
- MobStoreScanner(HStore, ScanInfo, Scan, NavigableSet<byte[]>, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.MobStoreScanner
-
- mobTableDir - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- MobUtils - org.apache.hadoop.hbase.mob中的类
-
The mob utilities
- ModifyableColumnFamilyDescriptor(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Construct a column descriptor specifying only the family name The other
attributes are defaulted.
- ModifyableColumnFamilyDescriptor(ColumnFamilyDescriptor) - 类 的构造器org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Constructor.
- ModifyableTableDescriptor(TableName) - 类 的构造器org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Construct a table descriptor specifying a TableName object
- ModifyableTableDescriptor(TableName, TableDescriptor) - 类 的构造器org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
已过时。
- modifyColumn(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- modifyColumn(RpcController, MasterProtos.ModifyColumnRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- modifyColumn(TableName, ColumnFamilyDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- modifyColumn(RpcController, MasterProtos.ModifyColumnRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyColumn(TableName, ColumnFamilyDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Modify the column descriptor of an existing column in an existing table
- modifyColumnFamily(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing column family on a table.
- modifyColumnFamily(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Modify an existing column family on a table.
- modifyColumnFamily(TableName, ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyColumnFamily(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Modifies the existing column family.
- modifyColumnFamily(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- modifyColumnFamilyAsync(TableName, ColumnFamilyDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing column family on a table.
- modifyColumnFamilyAsync(TableName, ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyFamily(HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Modifies the existing column family.
- modifyNamespace(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing namespace.
- modifyNamespace(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Modify an existing namespace.
- modifyNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyNamespace(RpcController, MasterProtos.ModifyNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- modifyNamespace(NamespaceDescriptor, NonceKey, ProcedurePrepareLatch) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterSchema
-
Modify an existing Namespace.
- modifyNamespace(RpcController, MasterProtos.ModifyNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyNamespaceAsync(NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing namespace.
- modifyNamespaceAsync(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- ModifyRegionUtils - org.apache.hadoop.hbase.util中的类
-
Utility methods for interacting with the regions.
- ModifyRegionUtils.RegionEditTask - org.apache.hadoop.hbase.util中的接口
-
- ModifyRegionUtils.RegionFillTask - org.apache.hadoop.hbase.util中的接口
-
- modifyTable(TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- modifyTable(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing table, more IRB friendly version.
- modifyTable(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Modify an existing table, more IRB friendly version.
- modifyTable(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyTable(TableName, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyTable(RpcController, MasterProtos.ModifyTableRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- modifyTable(TableName, TableDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- modifyTable(RpcController, MasterProtos.ModifyTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyTable(TableName, TableDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Modify the descriptor of an existing table
- modifyTableAsync(TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- modifyTableAsync(TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Modify an existing table, more IRB (ruby) friendly version.
- modifyTableAsync(TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- modifyTableAsync(TableName, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- MONITORED_RPC - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
Keeps MonitoredRPCHandler per handler thread.
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- moreRowsMayExistsAfter(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- move(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Move the region r to dest.
- move(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Move the region r to a random server.
- move(byte[], ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Move the region r to dest.
- move(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- move(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- MOVE_RETRIES_MAX_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- MOVE_WAIT_MAX_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- moveAsideBadEditsFile(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Move aside a bad edits file.
- moveBack(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Jumps back the current position of this ByteBuff by specified length.
- moveBack(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Jumps back the current position of this MBB by specified length.
- moveBack(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- moveBufferToStream(OutputStream, ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy the data to the output stream and update position in buffer.
- movedRegionCleanerPeriod() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- movedRegions - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- moveFromOnlineToDeadServers(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- moveRegion(RpcController, MasterProtos.MoveRegionRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- moveRegion(RpcController, MasterProtos.MoveRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- moveServers(Set<Address>, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Move given set of servers to the specified target RegionServer group.
- moveServers(Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- moveServers(Set<Address>, String, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Move servers to a new group.
- moveServersAndTables(Set<Address>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Move given set of servers and tables to the specified target RegionServer group.
- moveServersAndTables(Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- moveServersAndTables(Set<Address>, Set<TableName>, String, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Move servers and tables to a new group.
- moveTables(Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Move given set of tables to the specified target RegionServer group.
- moveTables(Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- moveTables(Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Set the group membership of a set of tables
- moveToNextRegion() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
Close the previous scanner and create a new ScannerCallable for the next scanner.
- msgInterval - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- MSLAB_CLASS_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- multi(RpcController, ClientProtos.MultiRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Execute multiple actions on a table: get, mutate, and/or execCoprocessor
- multi(Iterable<Op>) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
Run multiple operations in a transactional manner.
- MULTI_BYTE_BUFFER_HEAP_SIZE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- MultiAction - org.apache.hadoop.hbase.client中的类
-
Container for Actions (i.e.
- MultiAction() - 类 的构造器org.apache.hadoop.hbase.client.MultiAction
-
- MultiActionResultTooLarge - org.apache.hadoop.hbase中的异常错误
-
Exception thrown when the result needs to be chunked on the server side.
- MultiActionResultTooLarge(String) - 异常错误 的构造器org.apache.hadoop.hbase.MultiActionResultTooLarge
-
- MultiByteBuff - org.apache.hadoop.hbase.nio中的类
-
Provides a unified view of all the underlying ByteBuffers and will look as if a bigger
sequential buffer.
- MultiByteBuff(ByteBuffer...) - 类 的构造器org.apache.hadoop.hbase.nio.MultiByteBuff
-
- MulticastPublisher() - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- MultiHConnection - org.apache.hadoop.hbase.util中的类
-
Provides ability to create multiple Connection instances and allows to process a batch of
actions using CHTable.doBatchWithCallback()
- MultiHConnection(Configuration, int) - 类 的构造器org.apache.hadoop.hbase.util.MultiHConnection
-
Create multiple Connection instances and initialize a thread pool executor
- multiOrSequential(ZKWatcher, List<ZKUtil.ZKUtilOp>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Use ZooKeeper's multi-update functionality.
- multiple(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Create a byte array which is multiple given bytes
- MultipleColumnPrefixFilter - org.apache.hadoop.hbase.filter中的类
-
This filter is used for selecting only those keys with columns that matches
a particular prefix.
- MultipleColumnPrefixFilter(byte[][]) - 类 的构造器org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- multiply(S, S) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ColumnInterpreter
-
- MultiResponse - org.apache.hadoop.hbase.client中的类
-
A container for Result objects, grouped by regionName.
- MultiResponse() - 类 的构造器org.apache.hadoop.hbase.client.MultiResponse
-
- MultiRowMutationEndpoint - org.apache.hadoop.hbase.coprocessor中的类
-
- MultiRowMutationEndpoint() - 类 的构造器org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- MultiRowRangeFilter - org.apache.hadoop.hbase.filter中的类
-
Filter to support scan multiple row key ranges.
- MultiRowRangeFilter(List<MultiRowRangeFilter.RowRange>) - 类 的构造器org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
- MultiRowRangeFilter.RowRange - org.apache.hadoop.hbase.filter中的类
-
- MultiRowResource - org.apache.hadoop.hbase.rest中的类
-
- MultiRowResource(TableResource, String, String) - 类 的构造器org.apache.hadoop.hbase.rest.MultiRowResource
-
Constructor
- MultiTableHFileOutputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Create 3 level tree directory, first level is using table name as parent
directory and then use family name as child directory, and all related HFiles
for one family are under child directory
-tableName1
-columnFamilyName1
-columnFamilyName2
-HFiles
-tableName2
-columnFamilyName1
-HFiles
-columnFamilyName2
- MultiTableHFileOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableHFileOutputFormat
-
- MultiTableInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Convert HBase tabular data from multiple scanners into a format that
is consumable by Map/Reduce.
- MultiTableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
- MultiTableInputFormatBase - org.apache.hadoop.hbase.mapreduce中的类
-
- MultiTableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
- MultiTableOutputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Hadoop output format that writes to one or more HBase tables.
- MultiTableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- MultiTableOutputFormat.MultiTableRecordWriter - org.apache.hadoop.hbase.mapreduce中的类
-
Record writer for outputting to multiple HTables.
- MultiTableRecordWriter(Configuration, boolean) - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat.MultiTableRecordWriter
-
- MultiTableSnapshotInputFormat - org.apache.hadoop.hbase.mapred中的类
-
MultiTableSnapshotInputFormat generalizes
.TableSnapshotInputFormat
allowing a MapReduce job to run over one or more table snapshots, with one or more scans
configured for each.
- MultiTableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- MultiTableSnapshotInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
MultiTableSnapshotInputFormat generalizes
TableSnapshotInputFormat
allowing a MapReduce job to run over one or more table snapshots, with one or more scans
configured for each.
- MultiTableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- MultiTableSnapshotInputFormatImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Shared implementation of mapreduce code over multiple table snapshots.
- MultiTableSnapshotInputFormatImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- MultiThreadedClientExample - org.apache.hadoop.hbase.client.example中的类
-
Example on how to use HBase's
Connection and
Table in a
multi-threaded environment.
- MultiThreadedClientExample() - 类 的构造器org.apache.hadoop.hbase.client.example.MultiThreadedClientExample
-
- MultiThreadedClientExample.ReadExampleCallable - org.apache.hadoop.hbase.client.example中的类
-
Class to show how to scan some rows starting at a random location.
- MultiThreadedClientExample.SingleWriteExampleCallable - org.apache.hadoop.hbase.client.example中的类
-
Class to show how to send a single put.
- MultiThreadedClientExample.WriteExampleCallable - org.apache.hadoop.hbase.client.example中的类
-
Class that will show how to send batches of puts at the same time.
- MultithreadedTableMapper<K2,V2> - org.apache.hadoop.hbase.mapreduce中的类
-
Multithreaded implementation for @link org.apache.hbase.mapreduce.TableMapper
It can be used instead when the Map operation is not CPU
bound in order to improve throughput.
- MultithreadedTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
- multiTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- MultiVersionConcurrencyControl - org.apache.hadoop.hbase.regionserver中的类
-
Manages the read/write consistency.
- MultiVersionConcurrencyControl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- MultiVersionConcurrencyControl(long) - 类 的构造器org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Construct and set read point.
- MultiVersionConcurrencyControl.WriteEntry - org.apache.hadoop.hbase.regionserver中的类
-
Write number and whether write has completed given out at start of a write transaction.
- MunkresAssignment - org.apache.hadoop.hbase.util中的类
-
Computes the optimal (minimal cost) assignment of jobs to workers (or other
analogous) concepts given a cost matrix of each pair of job and worker, using
the algorithm by James Munkres in "Algorithms for the Assignment and
Transportation Problems", with additional optimizations as described by Jin
Kue Wong in "A New Implementation of an Algorithm for the Optimal Assignment
Problem: An Improved Version of Munkres' Algorithm".
- MunkresAssignment(float[][]) - 类 的构造器org.apache.hadoop.hbase.util.MunkresAssignment
-
Construct a new problem instance with the specified cost matrix.
- MURMUR_HASH - 类 中的静态变量org.apache.hadoop.hbase.util.Hash
-
- MURMUR_HASH3 - 类 中的静态变量org.apache.hadoop.hbase.util.Hash
-
- MurmurHash - org.apache.hadoop.hbase.util中的类
-
This is a very fast, non-cryptographic hash suitable for general hash-based
lookup.
- MurmurHash() - 类 的构造器org.apache.hadoop.hbase.util.MurmurHash
-
- MurmurHash3 - org.apache.hadoop.hbase.util中的类
-
This is a very fast, non-cryptographic hash suitable for general hash-based
lookup.
- MurmurHash3() - 类 的构造器org.apache.hadoop.hbase.util.MurmurHash3
-
- MutableOnlineRegions - org.apache.hadoop.hbase.regionserver中的接口
-
Interface to Map of online regions.
- MutableSegment - org.apache.hadoop.hbase.regionserver中的类
-
A mutable segment in memstore, specifically the active segment.
- MutableSegment(CellSet, CellComparator, MemStoreLAB) - 类 的构造器org.apache.hadoop.hbase.regionserver.MutableSegment
-
- mutate(Mutation) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
- mutate(List<? extends Mutation>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutator
-
- mutate(Mutation) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
- mutate(List<? extends Mutation>) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
- mutate(Mutation) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- mutate(List<? extends Mutation>) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- mutate(RpcController, ClientProtos.MutateRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Mutate data in a table.
- mutateMetaTable(Connection, List<Mutation>) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Execute the passed mutations against hbase:meta table.
- mutateRow(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Performs multiple mutations atomically on a single row.
- mutateRow(RowMutations) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- mutateRow(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Performs multiple mutations atomically on a single row.
- mutateRow(RowMutations) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- mutateRow(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Performs multiple mutations atomically on a single row.
- mutateRow(RowMutations) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- mutateRows(RpcController, MultiRowMutationProtos.MutateRowsRequest, RpcCallback<MultiRowMutationProtos.MutateRowsResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- mutateRowsWithLocks(Collection<Mutation>, Collection<byte[]>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Perform atomic (all or none) mutations within the region.
- mutateRowsWithLocks(Collection<Mutation>, Collection<byte[]>, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform atomic mutations within the region.
- Mutation - org.apache.hadoop.hbase.client中的类
-
- Mutation() - 类 的构造器org.apache.hadoop.hbase.client.Mutation
-
empty construction.
- Mutation(Mutation) - 类 的构造器org.apache.hadoop.hbase.client.Mutation
-
- Mutation(byte[], long, NavigableMap<byte[], List<Cell>>) - 类 的构造器org.apache.hadoop.hbase.client.Mutation
-
Construct the mutation with user defined data.
- mutation - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- MUTATION_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.client.Mutation
-
- MutationReplay(ClientProtos.MutationProto.MutationType, Mutation, long, long) - 类 的构造器org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- MutationSerialization - org.apache.hadoop.hbase.mapreduce中的类
-
- MutationSerialization() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- mvcc - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- MY_NAMESPACE_NAME - 类 中的静态变量org.apache.hbase.archetypes.exemplars.client.HelloHBase
-
- MY_NAMESPACE_NAME - 类 中的静态变量org.apache.hbase.archetypes.exemplars.shaded_client.HelloHBase
-
- P - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'P'
- PackagePrivateFieldAccessor - org.apache.hadoop.hbase.client中的类
-
A helper class used to access the package private field in o.a.h.h.client package.
- PackagePrivateFieldAccessor() - 类 的构造器org.apache.hadoop.hbase.client.PackagePrivateFieldAccessor
-
- padFront(String, char, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Strings
-
Push the input string to the right by appending a character before it, usually a space.
- padHead(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- padTail(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- PageFilter - org.apache.hadoop.hbase.filter中的类
-
Implementation of Filter interface that limits results to a specific page
size.
- PageFilter(long) - 类 的构造器org.apache.hadoop.hbase.filter.PageFilter
-
Constructor that takes a maximum page size.
- Pair<T1,T2> - org.apache.hadoop.hbase.util中的类
-
A generic class for pairs.
- Pair() - 类 的构造器org.apache.hadoop.hbase.util.Pair
-
Default constructor.
- Pair(T1, T2) - 类 的构造器org.apache.hadoop.hbase.util.Pair
-
Constructor
- PairOfSameType<T> - org.apache.hadoop.hbase.util中的类
-
A generic, immutable class for pairs of objects both of type T.
- PairOfSameType(T, T) - 类 的构造器org.apache.hadoop.hbase.util.PairOfSameType
-
Constructor
- PARALLEL_PREPARE_PUT_STORE_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- PARALLEL_PUT_STORE_THREADS_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- PARALLEL_PUT_STORE_THREADS_LIMIT_MIN_COLUMN_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- parent - 类 中的变量org.apache.hadoop.hbase.util.ClassLoaderBase
-
Parent class loader.
- parse(byte[], int, int) - 枚举 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- parse(byte[], int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- parse(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
- parse(Configuration) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKMainServer
-
- parseArgs(String[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- parseColumn(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Splits a column in family:qualifier form into separate byte arrays.
- parseComparator(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Splits a column in comparatorType:comparatorValue form into separate byte arrays
- ParseConstants - org.apache.hadoop.hbase.filter中的类
-
ParseConstants holds a bunch of constants related to parsing Filter Strings
Used by
ParseFilter
- ParseConstants() - 类 的构造器org.apache.hadoop.hbase.filter.ParseConstants
-
- parseDate(String) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Parses the string to a date.
- parseDelimitedFrom(byte[], int, int) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Parses all the RegionInfo instances from the passed in stream until EOF.
- parseDelimitedFrom(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- ParseFilter - org.apache.hadoop.hbase.filter中的类
-
This class allows a user to specify a filter via a string
The string is parsed using the methods of this class and
a filter object is constructed.
- ParseFilter() - 类 的构造器org.apache.hadoop.hbase.filter.ParseFilter
-
- parseFilterString(String) - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
Parses the filterString and constructs a filter using it
- parseFilterString(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
Parses the filterString and constructs a filter using it
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- parseFrom(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- parseFrom(byte[], int, int) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- parseFrom(DataInputStream) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Parses an RegionInfo instance from the passed in stream.
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- parseFrom(TableName, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.TableState
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.ClusterId
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.BinaryComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.BinaryPrefixComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.BitComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
Parse protobuf bytes to a ColumnValueFilter
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FamilyFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.Filter
-
Concrete implementers can signal a failure condition in their code by throwing an
IOException.
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FilterList
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FirstKeyValueMatchingQualifiersFilter
-
已过时。
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.FuzzyRowFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.KeyOnlyFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.LongComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.NullComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.PageFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.QualifierFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.RegexStringComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.RowFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.SkipFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.SubstringComparator
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ValueFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseFrom(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseFrom(DataInputStream) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- parseFrom(byte[], TimeRangeTracker.Type) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.SplitLogTask
-
- parseFromOrNull(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- parseFromOrNull(byte[], int, int) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- parseFromOrNull(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseFromOrNull(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseHashType(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Hash
-
This utility method converts String representation of hash function name
to a symbolic constant.
- parseHostname(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- parseHostname(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- parseInt(String, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- parseLong(String, long, long) - 类 中的静态方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
Parse a number and enforce a range.
- parseMasterServerName(String) - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
See HBASE-14861.
- parseNamespaceResult(Result, QuotaTableUtil.NamespaceQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseNamespaceResult(String, Result, QuotaTableUtil.NamespaceQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseOptions(String[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- parsePeerFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- parsePort(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- parsePort(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Addressing
-
- parser - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- parseRegionInfoFromRegionName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Returns an HRI parsed from this regionName.
- parseRegionName(byte[]) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Separate elements of a regionName.
- parseRegionName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- parseResult(Result, QuotaTableUtil.QuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseResultToCollection(Result, Collection<QuotaSettings>) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseRowKey(byte[], int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
Return starting position and length of row key from the specified line bytes.
- parseServerName(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- parseServerNameFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get a ServerName from the passed in data bytes.
- parseSimpleFilterExpression(byte[]) - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
Constructs a filter object given a simple filter expression
- parseStartcode(String) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- parseTableCFs(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Parse bytes into TableCFs.
- parseTableCFsFromConfig(String) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- parseTableCFsFromConfig(String) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
Convert tableCFs string into Map.
- parseTableResult(Result, QuotaTableUtil.TableQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseTableResult(TableName, Result, QuotaTableUtil.TableQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseUserResult(Result, QuotaTableUtil.UserQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseUserResult(String, Result, QuotaTableUtil.UserQuotasVisitor) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaTableUtil
-
- parseVersionedServerName(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.ServerName
-
- parseWALPositionFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- PartitionedMobCompactionRequest - org.apache.hadoop.hbase.mob.compactions中的类
-
- PartitionedMobCompactionRequest(Collection<PartitionedMobCompactionRequest.CompactionPartition>, List<PartitionedMobCompactionRequest.CompactionDelPartition>) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest
-
- PartitionedMobCompactionRequest.CompactionDelPartition - org.apache.hadoop.hbase.mob.compactions中的类
-
The delete file partition in the mob compaction.
- PartitionedMobCompactionRequest.CompactionDelPartitionId - org.apache.hadoop.hbase.mob.compactions中的类
-
The delete partition id that consists of start key and end key
- PartitionedMobCompactionRequest.CompactionPartition - org.apache.hadoop.hbase.mob.compactions中的类
-
The partition in the mob compaction.
- PartitionedMobCompactionRequest.CompactionPartitionId - org.apache.hadoop.hbase.mob.compactions中的类
-
The partition id that consists of start key and date of the mob file name.
- PartitionedMobCompactor - org.apache.hadoop.hbase.mob.compactions中的类
-
An implementation of
MobCompactor that compacts the mob files in partitions.
- PartitionedMobCompactor(Configuration, FileSystem, TableName, ColumnFamilyDescriptor, ExecutorService) - 类 的构造器org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
- passedPrefix - 类 中的变量org.apache.hadoop.hbase.filter.PrefixFilter
-
- passesDeleteFamilyBloomFilter(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- passesGeneralRowBloomFilter(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
A method for checking Bloom filters.
- passesGeneralRowColBloomFilter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
A method for checking Bloom filters.
- passesKeyRangeFilter(Scan) - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- passesKeyRangeFilter(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
Checks whether the given scan rowkey range overlaps with the current storefile's
- PASSWORD - 接口 中的静态变量org.apache.hadoop.hbase.io.crypto.KeyProvider
-
- password - 类 中的变量org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- PASSWORDFILE - 接口 中的静态变量org.apache.hadoop.hbase.io.crypto.KeyProvider
-
- passwordFile - 类 中的变量org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- path - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- path - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
May be null if we were passed a stream.
- path - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- path - 类 中的静态变量org.apache.hadoop.hbase.util.CompressionTest
-
- pathPrefix - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- PB_WAL_COMPLETE_MAGIC - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- PB_WAL_MAGIC - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- PBCell - org.apache.hadoop.hbase.types中的类
-
An example for using protobuf objects with
DataType API.
- PBCell() - 类 的构造器org.apache.hadoop.hbase.types.PBCell
-
- pbkdf128(String...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return a 128 bit key derived from the concatenation of the supplied
arguments using PBKDF2WithHmacSHA1 at 10,000 iterations.
- pbkdf128(byte[]...) - 类 中的静态方法org.apache.hadoop.hbase.io.crypto.Encryption
-
Return a 128 bit key derived from the concatenation of the supplied
arguments using PBKDF2WithHmacSHA1 at 10,000 iterations.
- PBType<T extends com.google.protobuf.Message> - org.apache.hadoop.hbase.types中的类
-
A base-class for
DataType implementations backed by protobuf.
- PBType() - 类 的构造器org.apache.hadoop.hbase.types.PBType
-
- PBUF_TRAILER_MINOR_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
HFile minor version that introduced pbuf filetrailer
- peek() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- peek() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Look at the next Cell in this scanner, but do not iterate scanner.
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Look at the next Cell in this scanner, but do not iterate the scanner
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- peek() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- peek() - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- peek() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Retrieve the next byte from this range without incrementing position.
- peerConfigUpdated(ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- peerConfigUpdated(ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigListener
-
Callback method for when users update the ReplicationPeerConfig for this peer
- PeerRegionServerListener(HBaseReplicationEndpoint) - 类 的构造器org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint.PeerRegionServerListener
-
- PEERS_STATE_ZNODE - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- PEERS_STATE_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- PEERS_ZNODE - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- PEERS_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- peersZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- PER_BLOCK_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- PERCENT_FILES_LOCAL - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PERCENT_FILES_LOCAL_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PERCENT_FILES_LOCAL_SECONDARY_REGIONS - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PERCENT_FILES_LOCAL_SECONDARY_REGIONS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PerClientRandomNonceGenerator - org.apache.hadoop.hbase.client中的类
-
NonceGenerator implementation that uses client ID hash + random int as nonce group, and random
numbers as nonces.
- performCompaction(PartitionedMobCompactionRequest) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
Performs the compaction on the selected files.
- performCompaction(Compactor.FileDetails, InternalScanner, CellSink, long, boolean, ThroughputController, boolean, int) - 类 中的方法org.apache.hadoop.hbase.mob.DefaultMobStoreCompactor
-
Performs compaction on a column family with the mob flag enabled.
- performMobFlush(MemStoreSnapshot, long, InternalScanner, StoreFileWriter, MonitoredTask, ThroughputController) - 类 中的方法org.apache.hadoop.hbase.mob.DefaultMobStoreFlusher
-
Flushes the cells in the mob store.
- PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- PHOENIX - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
- PING_CALL_ID - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- PipelineController() - 类 的构造器org.apache.hadoop.hbase.wal.WALSplitter.PipelineController
-
- pipelineThreshold - 类 中的变量org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- placePrimaryRSAsRoundRobin(Map<ServerName, List<RegionInfo>>, Map<RegionInfo, ServerName>, List<RegionInfo>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- placeSecondaryAndTertiaryRS(Map<RegionInfo, ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
- placeSecondaryAndTertiaryWithRestrictions(Map<RegionInfo, ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeAssignmentHelper
-
For regions that share the primary, avoid placing the secondary and tertiary
on a same RS.
- PleaseHoldException - org.apache.hadoop.hbase中的异常错误
-
This exception is thrown by the master when a region server was shut down and
restarted so fast that the master still hasn't processed the server shutdown
of the first instance, or when master is initializing and client call admin
operations, or when an operation is performed on a region server that is still starting.
- PleaseHoldException(String) - 异常错误 的构造器org.apache.hadoop.hbase.PleaseHoldException
-
- PleaseHoldException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.PleaseHoldException
-
- PleaseHoldException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.PleaseHoldException
-
- pluralize(Collection<?>) - 异常错误 中的静态方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- pluralize(int) - 异常错误 中的静态方法org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
Poll for the first completed task whether it is a success or execution exception.
- poll() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
- poll() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.BoundedCompletionService
-
- poll() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
- pollFirst() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- pollFirstEntry() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- pollFirstEntry() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- pollForFirstSuccessfullyCompletedTask(long, TimeUnit, int, int) - 类 中的方法org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
Poll for the first successfully completed task whose completed order is in startIndex,
endIndex(exclusive) range
- pollLast() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
- pollLast() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- pollLastEntry() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- pollLastEntry() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- pollRealKV() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
Fetches the top sub-scanner from the priority queue, ensuring that a real
seek has been done on it.
- pool(ExecutorService) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
Override the default executor pool defined by the hbase.htable.threads.*
configuration values.
- pool - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- pool - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- pool - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- POOL_INITIAL_SIZE_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- POOL_MAX_SIZE_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
- PoolMap<K,V> - org.apache.hadoop.hbase.util中的类
-
The PoolMap maps a key to a collection of values, the elements
of which are managed by a pool.
- PoolMap(PoolMap.PoolType) - 类 的构造器org.apache.hadoop.hbase.util.PoolMap
-
- PoolMap(PoolMap.PoolType, int) - 类 的构造器org.apache.hadoop.hbase.util.PoolMap
-
- PoolMap.Pool<R> - org.apache.hadoop.hbase.util中的接口
-
- PoolMap.PoolType - org.apache.hadoop.hbase.util中的枚举
-
- PoolMap.ReusablePool<R> - org.apache.hadoop.hbase.util中的类
-
- popArguments(Stack<ByteBuffer>, Stack<Filter>) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Pops an argument from the operator stack and the number of arguments required by the operator
from the filterStack and evaluates them
- populatePut(byte[], ImportTsv.TsvParser.ParsedLine, Put, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- port() - 类 中的方法org.apache.hadoop.hbase.client.example.HttpProxyExample
-
- port - 类 中的变量org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- position() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- position(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Sets this ByteBuff's position to the given value.
- position() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- position(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Sets this MBB's position to the given value.
- position() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- position(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- position - 类 中的变量org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
The current index into the range.
- PositionedByteRange - org.apache.hadoop.hbase.util中的接口
-
Extends
ByteRange with additional methods to support tracking a
consumers position within the viewport.
- positionToByteArray(long) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
- positiveJitterRate() - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- post(String, String, byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(String, String, byte[], Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(Cluster, String, String, byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(Cluster, String, String, byte[], Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(String, Header[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(Cluster, String, Header[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a POST request
- post(NamespacesInstanceModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for POST create namespace with properties specified.
- post(CellSetModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- post(ScannerModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResource
-
- post(TableSchemaModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.SchemaResource
-
- postAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a abortProcedure request has been processed.
- postAbortProcedure() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAddReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after add a replication peer
- postAddReplicationPeer(String, ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a new region server group is added
- postAddRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAppend(ObserverContext<RegionCoprocessorEnvironment>, Append, Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after Append
Note: Do not retain references to any Cells in 'append' beyond the life of this invocation.
- postAppend(Append, Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postAppend(long, long, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- postAppend(long, long, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
For notification post append to the writer.
- postAssign(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region assignment has been requested.
- postAssign(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalance(ObserverContext<MasterCoprocessorEnvironment>, List<RegionPlan>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the balancing plan has been submitted.
- postBalance(List<RegionPlan>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a region server group is removed
- postBalanceRSGroup(String, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the flag to enable/disable balancing has changed.
- postBalanceSwitch(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called after applying a batch of Mutations on a region.
- postBatchMutate(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- postBatchMutate(MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postBatchMutate(HRegion) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
The hook to be executed after the process() and applying the Mutations to region.
- postBatchMutateIndispensably(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the completion of batch put/delete and will be called even if the batch operation
fails.
- postBatchMutateIndispensably(MiniBatchOperationInProgress<Mutation>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postBinary(byte[], UriInfo, HttpHeaders) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- postBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>, Map<byte[], List<Path>>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after bulkLoadHFile.
- postBulkLoadHFile(List<Pair<byte[], String>>, Map<byte[], List<Path>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after checkAndDelete
Note: Do not retain references to any Cells in 'delete' beyond the life of this invocation.
- postCheckAndDelete(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after checkAndPut
Note: Do not retain references to any Cells in 'put' beyond the life of this invocation.
- postCheckAndPut(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postClearCompactionQueues(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after clearing compaction queues
- postClearCompactionQueues() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after clear dead region servers.
- postClearDeadServers(List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- postCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a snapshot clone operation has been requested.
- postCloneSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the region is reported as closed to the master.
- postClose(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a region is closed
- postCloseRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postCloseRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after moving bulk loaded hfile to region directory.
- postCommitStoreFile(byte[], Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile, CompactionLifeCycleTracker, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after compaction has completed and the new store file has been moved in to place.
- postCompact(HStore, HStoreFile, CompactionLifeCycleTracker, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called after the store compaction has completed.
- postCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends StoreFile>, CompactionLifeCycleTracker, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the
StoreFiles to compact have been selected from the available
candidates.
- postCompactSelection(HStore, List<HStoreFile>, CompactionLifeCycleTracker, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called after the
HStoreFiles to be compacted have been selected from the available
candidates.
- postCompletedCreateTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createTable operation has been requested.
- postCompletedCreateTableAction(TableDescriptor, RegionInfo[], User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCompletedDeleteTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after
HMaster deletes a
table.
- postCompletedDeleteTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCompletedDisableTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the disableTable operation has been requested.
- postCompletedDisableTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCompletedEnableTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the enableTable operation has been requested.
- postCompletedEnableTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCompletedMergeRegionsAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[], RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
called after the regions merge.
- postCompletedMergeRegionsAction(RegionInfo[], RegionInfo, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked after completing merge regions operation
- postCompletedModifyTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- postCompletedModifyTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after to modifying a table's properties.
- postCompletedModifyTableAction(TableName, TableDescriptor, TableDescriptor, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCompletedSplitRegionAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region is split.
- postCompletedSplitRegionAction(RegionInfo, RegionInfo, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked just after a split
- postCompletedTruncateTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after
HMaster truncates a
table.
- postCompletedTruncateTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createNamespace operation has been requested.
- postCreateNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateReplicationEndPoint(ObserverContext<RegionServerCoprocessorEnvironment>, ReplicationEndpoint) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after the replication endpoint is instantiated.
- postCreateReplicationEndPoint(ReplicationEndpoint) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postCreateTable(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createTable operation has been requested.
- postCreateTable(TableDescriptor, RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateTable(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- postDecommissionRegionServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after decommission region servers.
- postDecommissionRegionServers(List<ServerName>, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client deletes a value.
- postDelete(Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the deleteNamespace operation has been requested.
- postDeleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- postDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the delete snapshot operation has been requested.
- postDeleteSnapshot(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the deleteTable operation has been requested.
- postDeleteTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- postDisableReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after disable a replication peer
- postDisableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the disableTable operation has been requested.
- postDisableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEnableReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after enable a replication peer
- postEnableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the enableTable operation has been requested.
- postEnableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEncoding(HFileBlockEncodingContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.AbstractDataBlockEncoder
-
- postEncoding(BlockType) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- postEncoding(BlockType) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
Do any action that needs to be performed after the encoding.
- postEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message, Message.Builder) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.EndpointObserver
-
Called after an Endpoint service method is invoked.
- postEndpointInvocation(Service, String, Message, Message.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postExecuteProcedures(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after executing procedures
- postExecuteProcedures() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client tests for existence using a Get.
- postExists(Get, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postFlush(ObserverContext<RegionCoprocessorEnvironment>, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the memstore is flushed to disk.
- postFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a Store's memstore is flushed to disk.
- postFlush(FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a memstore flush
- postFlush(HStore, HStoreFile, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a memstore flush
- postGet(Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postGetClusterMetrics(ObserverContext<MasterCoprocessorEnvironment>, ClusterMetrics) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after get cluster status.
- postGetClusterMetrics(ClusterMetrics) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetLocks(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getLocks request has been processed.
- postGetLocks(List<LockedResource>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getNamespaceDescriptor request has been processed.
- postGetNamespaceDescriptor(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client performs a Get
Note: Do not retain references to any Cells in 'result' beyond the life of this invocation.
- postGetProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getProcedures request has been processed.
- postGetProcedures(List<Procedure<?>>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetReplicationPeerConfig(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after get the configured ReplicationPeerConfig for the specified peer
- postGetReplicationPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<TableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getTableDescriptors request has been processed.
- postGetTableDescriptors(List<TableName>, List<TableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<TableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getTableNames request has been processed.
- postGetTableNames(List<TableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment, Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after increment
Note: Do not retain references to any Cells in 'increment' beyond the life of this invocation.
- postIncrement(Increment, Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postInstantiateDeleteTracker(ObserverContext<RegionCoprocessorEnvironment>, DeleteTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postInstantiateDeleteTracker(DeleteTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postListDecommissionedRegionServers(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after list decommissioned region servers.
- postListDecommissionedRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a listNamespaceDescriptors request has been processed.
- postListNamespaceDescriptors(List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postListReplicationPeers(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after list replication peers.
- postListReplicationPeers(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after listSnapshots request has been processed.
- postListSnapshot(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postLockHeartbeat(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after heartbeat to a lock.
- postLockHeartbeat(LockProcedure, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postLogArchive(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL has been archived.
- postLogRoll(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL has been rolled.
- postMasterStartupInitialize() - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
If balancer needs to do initialization after Master has started up, lets do that here.
- postMasterStartupInitialize() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- postMemStoreCompaction(ObserverContext<RegionCoprocessorEnvironment>, Store) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the in memory compaction is finished.
- postMemStoreCompaction(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after in memory compaction.
- postMergeRegions(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
called after merge regions request.
- postMergeRegions(RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMergeRegionsCommit(RegionInfo[], RegionInfo, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked after merge regions operation writes the new region to hbase:meta
- postMergeRegionsCommitAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[], RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called after META step as part of regions merge transaction.
- postModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- postModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the modifyNamespace operation has been requested.
- postModifyNamespace(NamespaceDescriptor, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the modifyTable operation has been requested.
- postModifyTable(TableName, TableDescriptor, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMove(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo, ServerName, ServerName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region move has been requested.
- postMove(RegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveServers(Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveServersAndTables(Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveTables(Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMutationBeforeWAL(ObserverContext<RegionCoprocessorEnvironment>, RegionObserver.MutationType, Mutation, Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a new cell has been created during an increment operation, but before
it is committed to the WAL or memstore.
- postMutationBeforeWAL(RegionObserver.MutationType, Mutation, Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postNoBody(byte[], UriInfo, HttpHeaders) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for POST create namespace with no properties specified.
- postOpen(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the region is reported as open to the master.
- postOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a region open
- PostOpenDeployContext(HRegion, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- postOpenDeployTasks(RegionServerServices.PostOpenDeployContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- postOpenDeployTasks(RegionServerServices.PostOpenDeployContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Tasks to perform after region open to complete deploy of region on
regionserver
- postOperationFailure(IOException, long) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
Called after the operation is terminated with a failure.
- postOperationFailure(IOException, long) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- postOperationResult(V, long) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
Called after the operation is completed and the result fetched. this allows to perform extra
steps after the procedure is completed. it allows to apply transformations to the result that
will be returned by get().
- postOperationResult(V, long) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- postProcess(HRegion, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- postProcess(HRegion, WALEdit, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
The hook to be executed after process() and applying the Mutations to region.
- postPut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client stores a value.
- postPut(Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postRecommissionRegionServer(ObserverContext<MasterCoprocessorEnvironment>, ServerName, List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after recommission region server.
- postRecommissionRegionServer(ServerName, List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region has been marked offline.
- postRegionOffline(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRemoveReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after remove a replication peer
- postRemoveReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a region server group is removed
- postRemoveRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are removed from rsgroup
- postRemoveServers(Set<Address>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postReplayWALs(ObserverContext<? extends RegionCoprocessorEnvironment>, RegionInfo, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after replaying WALs for this region.
- postReplayWALs(RegionInfo, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
- postReplicateLogEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postRequestLock(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, RegionInfo[], String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after new LockProcedure is queued.
- postRequestLock(String, TableName, RegionInfo[], LockType, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a snapshot restore operation has been requested.
- postRestoreSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRollBackMergeRegionsAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called after the roll back of the regions merge.
- postRollBackMergeRegionsAction(RegionInfo[], User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked after rollback merge regions operation
- postRollBackSplitRegionAction(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called after the roll back of the split region is completed
- postRollBackSplitRegionAction(User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked just after the rollback of a failed split
- postRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after executing user request to roll a region server WAL.
- postRollWALWriterRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client closes a scanner.
- postScannerClose(InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postScannerFilterRow(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, Cell, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called by the scan flow when the current scanned row is being filtered out by the
filter.
- postScannerFilterRow(InternalScanner, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
This will be called by the scan flow when the current scanned row is being filtered out by the
filter.
- postScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client asks for the next row on a scanner.
- postScannerNext(InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client opens a new scanner.
- postScannerOpen(Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the namespace is stored.
- postSetNamespaceQuota(String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after setting split / merge switch
- postSetSplitOrMergeEnabled(boolean, MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the table is stored.
- postSetTableQuota(TableName, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user is stored.
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user on the specified table is stored.
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user on the specified namespace is stored.
- postSetUserQuota(String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(String, TableName, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(String, String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the snapshot operation has been requested.
- postSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSnapshotOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Perform tasks needed after the completion of snapshot operation.
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called immediately after an active master instance has completed
initialization.
- postStartMaster() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postStartRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postStartRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFileReader) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postStoreFileReaderOpen(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFileReader) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postSync(long, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- postSync(long, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- postSync(long, int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
For notification post writer sync.
- postTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the table memstore is flushed to disk.
- postTableFlush(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the truncateTable operation has been requested.
- postTruncateTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postUnassign(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region unassignment has been requested.
- postUnassign(RegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postUpdateReplicationPeerConfig(ObserverContext<MasterCoprocessorEnvironment>, String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after update peerConfig for the specified peer
- postUpdateReplicationPeerConfig(String, ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, RegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a
WALEdit
replayed for this region.
- postWALRestore(RegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called after rolling the current WAL
- postWALRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
Called after rolling the current WAL
- postWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, RegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
- postWALWrite(RegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- preAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>, long) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a abortProcedure request has been processed.
- preAbortProcedure(ProcedureExecutor<MasterProcedureEnv>, long) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- pread - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- preAddReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before add a replication peer
- preAddReplicationPeer(String, ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new region server group is added
- preAddRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAppend(ObserverContext<RegionCoprocessorEnvironment>, Append) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Append.
- preAppend(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preAppendAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Append) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Append but after acquiring rowlock.
- preAppendAfterRowLock(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preAssign(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to assigning a specific region.
- preAssign(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalance(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to requesting rebalancing of the cluster regions, though after
the initial checks for regions in transition and the balance switch flag.
- preBalance() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a region server group is removed
- preBalanceRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying the flag used to enable/disable region balancing.
- preBalanceSwitch(boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called for every batch mutation operation happening at the server.
- preBatchMutate(HRegion, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- preBatchMutate(MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preBatchMutate(HRegion, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
The hook to be executed after the process() but before applying the Mutations to region.
- preBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before bulkLoadHFile.
- preBulkLoadHFile(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This method should only be called from Region.
- preBulkLoadHFile(List<Pair<byte[], String>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCheck(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Check before the delete logic.
- preCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndDelete.
- preCheckAndDelete(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preCheckAndDeleteAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndDelete but after acquiring rowock.
- preCheckAndDeleteAfterRowLock(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndPut.
- preCheckAndPut(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preCheckAndPutAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndPut but after acquiring rowlock.
- preCheckAndPutAfterRowLock(byte[], byte[], byte[], CompareOperator, ByteArrayComparable, Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preCleanupBulkLoad(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.BulkLoadObserver
-
Called as part of SecureBulkLoadEndpoint.cleanupBulkLoad() RPC call.
- preCleanupBulkLoad(User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preClearCompactionQueues(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before clearing compaction queues
- preClearCompactionQueues() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before clear dead region servers.
- preClearDeadServers() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is cloned.
- preCloneSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- preClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the region is reported as closed to the master.
- preClose(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a region is closed
- preCloseWriter(StoreFileWriter) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Subclasses override this method to be called before we close the give writer.
- preCloseWriter(StoreFileWriter) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Pair<Path, Path>>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before moving bulk loaded hfile to region directory.
- preCommitStoreFile(byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Subclasses override this method to be called at the end of a successful sequence of append; all
appends are processed before this method is called.
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredMultiFileWriter
-
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType, CompactionLifeCycleTracker, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called prior to writing the
StoreFiles selected for compaction into a new
StoreFile.
- preCompact(HStore, InternalScanner, ScanType, CompactionLifeCycleTracker, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called prior to rewriting the store files selected for compaction
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, ScanType, ScanOptions, CompactionLifeCycleTracker, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before we open store scanner for compaction.
- preCompactScannerOpen(HStore, ScanType, CompactionLifeCycleTracker, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called prior to opening store scanner for compaction.
- preCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends StoreFile>, CompactionLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called prior to selecting the
StoreFiles to compact from the list of
available candidates.
- preCompactSelection(HStore, List<HStoreFile>, CompactionLifeCycleTracker, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called prior to selecting the
HStoreFiles for compaction from the list of currently
available candidates.
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new namespace is created by
HMaster.
- preCreateNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- preCreateTable(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new table is created by
HMaster.
- preCreateTable(TableDescriptor, RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCreateTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new table is created by
HMaster.
- preCreateTableAction(TableDescriptor, RegionInfo[], User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCreateTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableDescriptor, RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- preDecommissionRegionServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before decommission region servers.
- preDecommissionRegionServers(List<ServerName>, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client deletes a value.
- preDelete(Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
namespace
- preDeleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is deleted.
- preDeleteSnapshot(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
table.
- preDeleteTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
table.
- preDeleteTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDisableReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before disable a replication peer
- preDisableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to disabling a table.
- preDisableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDisableTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to disabling a table.
- preDisableTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- PreemptiveFastFailException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Thrown when the client believes that we are trying to communicate to has
been repeatedly unresponsive for a while.
- PreemptiveFastFailException(long, long, long, ServerName) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- PreemptiveFastFailException(long, long, long, ServerName, boolean) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.PreemptiveFastFailException
-
- preEnableReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before enable a replication peer
- preEnableReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to enabling a table.
- preEnableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preEnableTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to enabling a table.
- preEnableTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.EndpointObserver
-
Called before an Endpoint service method is invoked.
- preEndpointInvocation(Service, String, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preExecuteProcedures(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before executing procedures
- preExecuteProcedures() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client tests for existence using a Get.
- preExists(Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- PREFETCH_BLOCKS_ON_OPEN - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
Key for the PREFETCH_BLOCKS_ON_OPEN attribute.
- PREFETCH_BLOCKS_ON_OPEN - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- PREFETCH_BLOCKS_ON_OPEN_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to prefetch all blocks of a given file into the block cache
when the file is opened.
- prefetchComplete() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- prefetchComplete() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
Returns false if block prefetching was requested for this file and has
not completed, true otherwise
- PrefetchExecutor - org.apache.hadoop.hbase.io.hfile中的类
-
- prefix - 类 中的变量org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- prefix - 类 中的变量org.apache.hadoop.hbase.filter.PrefixFilter
-
- prefix(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Adds this instance's identifier as a prefix to the passed str
- PREFIX_LENGTH_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- PREFIX_LENGTH_KEY_DEPRECATED - 类 中的静态变量org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
已过时。
- PrefixFilter - org.apache.hadoop.hbase.filter中的类
-
Pass results that have same row prefix.
- PrefixFilter(byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.PrefixFilter
-
- PrefixKeyDeltaEncoder - org.apache.hadoop.hbase.io.encoding中的类
-
Compress key by storing size of common prefix with previous KeyValue
and storing raw size of rest.
- PrefixKeyDeltaEncoder() - 类 的构造器org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- prefixPathStr - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
Prefix used when checking for wal membership.
- preFlush(ObserverContext<RegionCoprocessorEnvironment>, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the memstore is flushed to disk.
- preFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a Store's memstore is flushed to disk.
- preFlush(HStore, InternalScanner, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a memstore flush
- preFlush(FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a memstore flush
- preFlushScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, ScanOptions, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before we open store scanner for flush.
- preFlushScannerOpen(HStore, FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before create StoreScanner for flush.
- preFlushSeqIDEstimation() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
This method is called before the flush is executed.
- preFlushSeqIDEstimation() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- preFlushSeqIDEstimation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- preFlushSeqIDEstimation() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
This method is called before the flush is executed.
- preGet(Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preGetClusterMetrics(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before get cluster status.
- preGetClusterMetrics() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetLocks(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getLocks request has been processed.
- preGetLocks() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getNamespaceDescriptor request has been processed.
- preGetNamespaceDescriptor(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client performs a Get
Call CoprocessorEnvironment#bypass to skip default actions.
- preGetProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getProcedures request has been processed.
- preGetProcedures() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetReplicationPeerConfig(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before get the configured ReplicationPeerConfig for the specified peer
- preGetReplicationPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<TableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getTableDescriptors request has been processed.
- preGetTableDescriptors(List<TableName>, List<TableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<TableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getTableNames request has been processed.
- preGetTableNames(List<TableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Increment.
- preIncrement(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preIncrementAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Increment but after acquiring rowlock.
- preIncrementAfterRowLock(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preListDecommissionedRegionServers(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before list decommissioned region servers.
- preListDecommissionedRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a listNamespaceDescriptors request has been processed.
- preListNamespaceDescriptors(List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListReplicationPeers(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before list replication peers.
- preListReplicationPeers(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before listSnapshots request has been processed.
- preListSnapshot(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preLockHeartbeat(ObserverContext<MasterCoprocessorEnvironment>, TableName, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before heartbeat to a lock.
- preLockHeartbeat(LockProcedure, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preLogArchive(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL is going to be archived.
- preLogRoll(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL is going to be rolled.
- preMasterInitialization(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Call before the master initialization is set to true.
- preMasterInitialization() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMemStoreCompaction(ObserverContext<RegionCoprocessorEnvironment>, Store) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before in memory compaction started.
- preMemStoreCompaction(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before in memory compaction.
- preMemStoreCompactionCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before we do in memory compaction.
- preMemStoreCompactionCompact(HStore, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before compacting memstore.
- preMemStoreCompactionCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, ScanOptions) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before we open store scanner for in memory compaction.
- preMemStoreCompactionCompactScannerOpen(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before create StoreScanner for in memory compaction.
- preMergeRegions(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before merge regions request.
- preMergeRegions(RegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMergeRegionsAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the regions merge.
- preMergeRegionsAction(RegionInfo[], User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked just before a merge
- preMergeRegionsCommit(RegionInfo[], List<Mutation>, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked before merge regions operation writes the new region to hbase:meta
- preMergeRegionsCommitAction(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo[], List<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called before update META step as part of regions merge transaction.
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a namespace's properties.
- preModifyNamespace(NamespaceDescriptor, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a table's properties.
- preModifyTable(TableName, TableDescriptor, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
- preModifyTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName, TableDescriptor, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a table's properties.
- preModifyTableAction(TableName, TableDescriptor, TableDescriptor, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMove(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo, ServerName, ServerName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to moving a given region from one region server to another.
- preMove(RegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are moved to target region server group
- preMoveServers(Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are moved to target region server group
- preMoveServersAndTables(Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before tables are moved to target region server group
- preMoveTables(Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preOpen(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the region is reported as open to the master.
- preOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a region open.
- prepare(boolean) - 类 中的方法org.apache.hadoop.hbase.client.FlushRegionCallable
-
- prepare(boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- prepare(boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- prepare(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.RetryingCallable
-
Prepare by setting up any connections to servers, etc., ahead of call invocation.
- prepare(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ReversedScannerCallable
-
- prepare(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- prepare(E) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- prepare(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
Reset the map if it is different with the last Cell.
- prepareBulkLoad(Connection) - 类 中的方法org.apache.hadoop.hbase.client.SecureBulkLoadClient
-
- prepareBulkLoad(byte[], String, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.HRegion.BulkLoadListener
-
Called before an HFile is actually loaded
- prepareBulkLoad(RpcController, ClientProtos.PrepareBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- prepareBulkLoad(HRegion, ClientProtos.PrepareBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.SecureBulkLoadManager
-
- prepareDecoding(int, int, ByteBuff, ByteBuff) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDecodingContext
-
Perform all actions that need to be done before the encoder's real decoding
process.
- prepareDecoding(int, int, ByteBuff, ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultDecodingContext
-
- prepareDelete(Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Prepare a delete for a row mutation processor
- prepareDeleteTimestamps(Mutation, Map<byte[], List<Cell>>, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Set up correct timestamps in the KVs in Delete object.
- prepareEncoding(DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
prepare to start a new encoding.
- prepareForBlockReader(boolean) - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Prepares the streams for block reader.
- prepareTask(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Prepare the new task
- prepareTask(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- prepend(TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- prepend(TNode, TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- prependPBMagic(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Prepend the passed bytes with four bytes of magic, ProtobufMagic.PB_MAGIC,
to flag what follows as a protobuf in hbase.
- prePrepareBulkLoad(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.BulkLoadObserver
-
Called as part of SecureBulkLoadEndpoint.prepareBulkLoad() RPC call.
- prePrepareBulkLoad(User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- prePrepareTimeStampForDeleteVersion(ObserverContext<RegionCoprocessorEnvironment>, Mutation, Cell, byte[], Get) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- prePrepareTimeStampForDeleteVersion(Mutation, Cell, byte[], Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preProcess(HRegion, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- preProcess(HRegion, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
The hook to be executed before process().
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client stores a value.
- prePut(Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preRecommissionRegionServer(ObserverContext<MasterCoprocessorEnvironment>, ServerName, List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before recommission region server.
- preRecommissionRegionServer(ServerName, List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to marking a given region as offline.
- preRegionOffline(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRemoveReplicationPeer(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before remove a replication peer
- preRemoveReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a region server group is removed
- preRemoveRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are removed from rsgroup
- preRemoveServers(Set<Address>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preReplayWALs(ObserverContext<? extends RegionCoprocessorEnvironment>, RegionInfo, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before replaying WALs for this region.
- preReplayWALs(RegionInfo, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
- preReplicateLogEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preRequestLock(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, RegionInfo[], String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before new LockProcedure is queued.
- preRequestLock(String, TableName, RegionInfo[], LockType, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is restored.
- preRestoreSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before executing user request to roll a region server WAL.
- preRollWALWriterRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client closes a scanner.
- preScannerClose(InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Supports Coprocessor 'bypass'.
- preScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client asks for the next row on a scanner.
- preScannerNext(InternalScanner, List<Result>, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client opens a new scanner.
- preScannerOpen(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the namespace is stored.
- preSetNamespaceQuota(String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to setting split / merge switch
Supports Coprocessor 'bypass'.
- preSetSplitOrMergeEnabled(boolean, MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the table is stored.
- preSetTableQuota(TableName, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user is stored.
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user on the specified table is stored.
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, GlobalQuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user on the specified namespace is stored.
- preSetUserQuota(String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(String, TableName, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(String, String, GlobalQuotaSettings) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preShutdown(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to shutting down the full HBase cluster, including this
HMaster process.
- preShutdown() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSnapshot(ObserverContext<MasterCoprocessorEnvironment>, SnapshotDescription, TableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new snapshot is taken.
- preSnapshot(SnapshotDescription, TableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSnapshotOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Sets the store up for a region level snapshot operation.
- preSplitAfterMETAAction(User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
This will be called after update META step as part of split table region procedure.
- preSplitBeforeMETAAction(byte[], List<Mutation>, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
This will be called before update META step as part of split table region procedure.
- preSplitRegion(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the split region procedure is called.
- preSplitRegion(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked just before calling the split region procedure
- preSplitRegionAction(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the region is split.
- preSplitRegionAction(TableName, byte[], User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
Invoked just before a split
- preSplitRegionAfterMETAAction(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called after update META step as part of split transaction
- preSplitRegionBeforeMETAAction(ObserverContext<MasterCoprocessorEnvironment>, byte[], List<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
This will be called before update META step as part of split transaction.
- PressureAwareCompactionThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
A throughput controller which uses the follow schema to limit throughput
If compaction pressure is greater than 1.0, no limitation.
- PressureAwareCompactionThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- PressureAwareFlushThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
A throughput controller which uses the follow schema to limit throughput
If flush pressure is greater than or equal to 1.0, no limitation.
- PressureAwareFlushThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- PressureAwareThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
- PressureAwareThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- preStop(String, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preStopMaster(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called immediately prior to stopping this
HMaster process.
- preStopMaster() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preStopRegionServer(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
Called before stopping region server.
- preStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFileReader) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preStoreFileReaderOpen(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preStoreScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, ScanOptions) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a store opens a new scanner.
- preStoreScannerOpen(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called before open store scanner for user scan.
- preTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the table memstore is flushed to disk.
- preTableFlush(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster truncates a
table.
- preTruncateTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preTruncateTableAction(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster truncates a
table.
- preTruncateTableAction(TableName, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- prettyPrint(String) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Use logging.
- prettyPrint(String) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- PrettyPrinter - org.apache.hadoop.hbase.util中的类
-
- PrettyPrinter() - 类 的构造器org.apache.hadoop.hbase.util.PrettyPrinter
-
- PrettyPrinter.Unit - org.apache.hadoop.hbase.util中的枚举
-
- preUnassign(ObserverContext<MasterCoprocessorEnvironment>, RegionInfo, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to unassigning a given region.
- preUnassign(RegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preUpdateReplicationPeerConfig(ObserverContext<MasterCoprocessorEnvironment>, String, ReplicationPeerConfig) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before update peerConfig for the specified peer
- preUpdateReplicationPeerConfig(String, ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- prevBlocks - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- prevCell - 类 中的变量org.apache.hadoop.hbase.io.encoding.EncodingState
-
The previous Cell the encoder encoded.
- previousKey(KeyValue) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Decrement the timestamp.
- preWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, RegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a
WALEdit
replayed for this region.
- preWALRestore(RegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called before rolling the current WAL
- preWALRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
Called before rolling the current WAL
- preWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, RegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
- preWALWrite(RegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- primaryOperationTimeout - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- print(boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- print(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- print(Object) - 类 中的静态方法org.apache.hadoop.hbase.util.JRubyFormat
-
- printAssignmentPlan(FavoredNodesPlan) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Print the assignment plan to the system output stream
- printDispersionScores(TableName, SnapshotOfRegionAssignmentFromMeta, int, FavoredNodesPlan, boolean) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- printLocalityAndDispersionForCurrentPlan(Map<String, Map<String, Float>>) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- printStatistics() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
Prints the statistics.
- printThreadInfo(PrintStream, String) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Print all of the thread's information and stack traces.
- printUsage() - 类 中的方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- printUsage() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- printUsage() - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- printUsage(String, String, String) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- printUsageAndExit() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- printUsageAndExit() - 类 中的静态方法org.apache.hadoop.hbase.util.hbck.OfflineMetaRepair
-
- PRIORITY - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- priority - 类 中的变量org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
Chaining priority
- PRIORITY - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- PRIORITY_HIGHEST - 接口 中的静态变量org.apache.hadoop.hbase.Coprocessor
-
Highest installation priority
- PRIORITY_LOWEST - 接口 中的静态变量org.apache.hadoop.hbase.Coprocessor
-
Lowest installation priority
- PRIORITY_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- PRIORITY_QUEUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- PRIORITY_SYSTEM - 接口 中的静态变量org.apache.hadoop.hbase.Coprocessor
-
High (system) installation priority
- PRIORITY_UNSET - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
QOS attributes: these attributes are used to demarcate RPC call processing
by different set of handlers.
- PRIORITY_USER - 接口 中的静态变量org.apache.hadoop.hbase.Coprocessor
-
Default installation priority for user coprocessors
- PRIORITY_USER - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.Store
-
The default priority for user-specified compaction requests.
- PriorityFunction - org.apache.hadoop.hbase.ipc中的接口
-
Function to figure priority of incoming request.
- PrivateCellUtil - org.apache.hadoop.hbase中的类
-
Utility methods helpful slinging
Cell instances.
- ProcedureFuture(HBaseAdmin, Long) - 类 的构造器org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- process(RpcController, RowProcessorProtos.ProcessRequest, RpcCallback<RowProcessorProtos.ProcessResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
Pass a processor to region to process multiple rows atomically.
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactedHFilesDischargeHandler
-
- process(long, HRegion, List<Mutation>, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
HRegion handles the locks and MVCC and invokes this method properly.
- process(WatchedEvent) - 类 中的方法org.apache.hadoop.hbase.zookeeper.EmptyWatcher
-
- process(WatchedEvent) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Method called from ZooKeeper for events and connection status.
- PROCESS_CALL_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- PROCESS_CALL_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- processBatchCallback(List<? extends Row>, Object[], Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
Process a mixed batch of Get, Put and Delete actions.
- processBatchCallback(List<? extends Row>, TableName, Object[], Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.util.MultiHConnection
-
Randomly pick a connection and process the batch of actions for a given table
- processedCall(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- processedCall(int) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- processException(Throwable) - 类 中的方法org.apache.hadoop.hbase.rest.ResourceBase
-
- processFile(Path) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- processFile(Configuration, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
reads a log file and outputs its contents, one transaction at a time, as
specified by the currently configured options
- processFirstDataBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- processFirstDataBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- processKV(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context, Put, Delete) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- processOldArgs(List<String>) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
For backward compatibility.
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
This method is called to process the options after they have been parsed.
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.util.RegionMover
-
- processParameter(String, String) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- processParameters(URI) - 类 中的方法org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- processResult(int, String, Object, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateAsyncCallback
-
- processResult(int, String, Object, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateRescanAsyncCallback
-
- processResult(int, String, Object) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.DeleteAsyncCallback
-
- processResult(int, String, Object, byte[], Stat) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.GetDataAsyncCallback
-
- processRowsWithLocks(RowProcessor<?, ?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- procId - 类 中的变量org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture
-
- progress() - 接口 中的方法org.apache.hadoop.hbase.util.CancelableProgressable
-
Report progress.
- progress() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- PropagatingConfigurationObserver - org.apache.hadoop.hbase.conf中的接口
-
This extension to ConfigurationObserver allows the configuration to propagate to the children of
the current
ConfigurationObserver.
- ProtobufLogReader - org.apache.hadoop.hbase.regionserver.wal中的类
-
A Protobuf based WAL has the following structure:
<PB_WAL_MAGIC><WALHeader><WALEdits>...
- ProtobufLogReader() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- ProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
Writer for protobuf-based WAL.
- ProtobufLogWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- ProtobufMessageHandler - org.apache.hadoop.hbase.rest中的接口
-
Common interface for models capable of supporting protobuf marshalling
and unmarshalling.
- ProtobufStreamingOutput - org.apache.hadoop.hbase.rest中的类
-
- ProtobufStreamingOutput(ResultScanner, String, int, int) - 类 的构造器org.apache.hadoop.hbase.rest.ProtobufStreamingOutput
-
- ProtobufUtil - org.apache.hadoop.hbase.shaded.protobuf中的类
-
Protobufs utility.
- providerId - 类 中的变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- publish(ClusterMetrics) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- publish(ClusterMetrics) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- publishSyncOnRingBuffer(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- purge() - 类 中的方法org.apache.hadoop.hbase.util.ObjectPool
-
Removes stale references of shared objects from the pool.
- purgeTimeout - 类 中的变量org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- pushActiveToPipeline(MutableSegment) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- pushHead(MutableSegment) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- put(Put) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Puts some data to the table.
- put(List<Put>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Puts some data in the table, in batch.
- put(Put) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- put(List<Put>) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- put(TableName, Put) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
The put request will be buffered by its corresponding buffer queue.
- put(TableName, List<Put>) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
The puts request will be buffered by their corresponding buffer queue.
- put(byte[], List<Put>) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
- put(TableName, Put, int) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
The put request will be buffered by its corresponding buffer queue.
- put(byte[], Put, int) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
- put(byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTableMultiplexer
-
- Put - org.apache.hadoop.hbase.client中的类
-
Used to perform Put operations for a single row.
- Put(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Create a Put operation for the specified row.
- Put(byte[], long) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Create a Put operation for the specified row, using a given timestamp.
- Put(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
We make a copy of the passed in row key to keep local.
- Put(ByteBuffer, long) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
- Put(ByteBuffer) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
- Put(byte[], int, int, long) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
We make a copy of the passed in row key to keep local.
- Put(byte[], boolean) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Create a Put operation for an immutable row key.
- Put(byte[], long, boolean) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Create a Put operation for an immutable row key, using a given timestamp.
- Put(Put) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Copy constructor.
- Put(byte[], long, NavigableMap<byte[], List<Cell>>) - 类 的构造器org.apache.hadoop.hbase.client.Put
-
Construct the Put with user defined data.
- put(Put) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Puts some data in the table.
- put(List<Put>) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
Batch puts the specified data into the table.
- put(byte[], int) - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
Put the magic record out to the specified byte array position.
- put(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- put(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- put(byte) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Writes a byte to this ByteBuff at the current position and increments the position
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Writes a byte to this ByteBuff at the given index
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies from the given byte[] to this ByteBuff
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies from the given byte[] to this ByteBuff
- put(int, ByteBuff, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copies the contents from the src ByteBuff to this ByteBuff.
- put(byte) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Writes a byte to this MBB at the current position and increments the position
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Writes a byte to this MBB at the given index
- put(int, ByteBuff, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies from a src MBB to this MBB.
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies from the given byte[] to this MBB
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copies from the given byte[] to this MBB
- put(byte) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- put(int, ByteBuff, int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- put(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- put(Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- put(Put) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Puts some data in the table.
- put(String, String, byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(String, String, byte[], Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(Cluster, String, String, byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(Cluster, String, String, byte[], Header) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(String, Header[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(Cluster, String, Header[], byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Send a PUT request
- put(Put) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- put(List<Put>) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
- put(NamespacesInstanceModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for PUT alter namespace with properties specified.
- put(CellSetModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- put(ScannerModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResource
-
- put(TableSchemaModel, UriInfo) - 类 中的方法org.apache.hadoop.hbase.rest.SchemaResource
-
- put(K, V) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- put(byte) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- put(E) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- put(int, byte) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store val at index.
- put(int, byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store val at index.
- put(int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store length bytes from val into this range, starting at
index.
- put(R) - 接口 中的方法org.apache.hadoop.hbase.util.PoolMap.Pool
-
- put(K, V) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- put(R) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap.ReusablePool
-
- put(byte) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store val at the next position in this range.
- put(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store the content of val in this range, starting at the next position.
- put(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store length bytes from val into this range.
- put(int, byte) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- put(int, byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- put(int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- put(byte) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- put(byte) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- put(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- put(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- put(int, byte) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- put(int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- put(int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- PUT_BATCH_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PUT_BATCH_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- PUT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- PUT_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- putAll(List<Put>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
A simple version of batch put.
- putAll(Map<? extends byte[], ? extends byte[]>) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- putAll(Map<? extends Cell, ? extends Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- putAll(Map<? extends K, ? extends V>) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- putAllConfiguration(Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Adds all of the provided "raw" configuration entries to this.
- putAllPeerData(Map<byte[], byte[]>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets all of the provided serialized peer configuration data.
- putAsShort(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putAsShort(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put an int value as short out to the specified byte array position.
- putBack(Cell) - 类 中的方法org.apache.hadoop.hbase.rest.ResultGenerator
-
- putBack(Cell) - 类 中的方法org.apache.hadoop.hbase.rest.RowResultGenerator
-
- putBack(Cell) - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- putbackBuffer(ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferPool
-
Return back a ByteBuffer after its use.
- putBigDecimal(byte[], int, BigDecimal) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put a BigDecimal value out to the specified byte array position.
- putBinary(byte[], UriInfo, HttpHeaders) - 类 中的方法org.apache.hadoop.hbase.rest.RowResource
-
- putByte(ByteBuffer, int, byte) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putByte(byte[], int, byte) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Write a single byte out to the specified byte array position.
- putByte(ByteBuffer, int, byte) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put a byte value out to the specified BB position in big-endian format.
- putByteBuffer(byte[], int, ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Add the whole content of the ByteBuffer to the bytes arrays.
- putBytes(byte[], int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put bytes at the specified byte array position.
- PutCombiner<K> - org.apache.hadoop.hbase.mapreduce中的类
-
Combine Puts.
- PutCombiner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.PutCombiner
-
- putCompressedInt(OutputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Put in buffer integer using 7 bit encoding.
- putConfiguration(String, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets a "raw" configuration property for this replication peer.
- putDouble(byte[], int, double) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- putFloat(byte[], int, float) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- putIfAbsent(K, V) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Writes an int to this ByteBuff at its current position.
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Writes an int to this MBB at its current position.
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putInt(OutputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Put in output stream 32 bit integer (Big Endian byte order).
- putInt(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Put an int value out to the given ByteBuffer's current position in big-endian format.
- putInt(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putInt(int, int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store the int value at index
- putInt(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put an int value out to the specified byte array position.
- putInt(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store int val at the next position in this range.
- putInt(int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putInt(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putInt(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putInt(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put an int value out to the specified byte array position in big-endian format.
- putInt(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put an int value out to the specified ByteBuffer offset in big-endian format.
- putIntUnsafe(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Writes a long to this ByteBuff at its current position.
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Writes a long to this MBB at its current position.
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putLong(OutputStream, long, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putLong(ByteBuffer, long) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Put a long value out to the given ByteBuffer's current position in big-endian format.
- putLong(ByteBuffer, int, long) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putLong(int, long) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store the long value at index
- putLong(byte[], int, long) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put a long value out to the specified byte array position.
- putLong(long) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store long val at the next position in this range.
- putLong(int, long) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putLong(long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putLong(byte[], int, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put a long value out to the specified byte array position in big-endian format.
- putLong(ByteBuffer, int, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put a long value out to the specified BB position in big-endian format.
- putLongUnsafe(byte[], int, long) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- putMultiple(long, int, byte[]) - 类 中的方法org.apache.hadoop.hbase.util.ByteBufferArray
-
Transfers bytes from the given source array into this buffer array
- putMultiple(long, int, byte[], int) - 类 中的方法org.apache.hadoop.hbase.util.ByteBufferArray
-
Transfers bytes from the given source array into this buffer array
- putNoBody(byte[], UriInfo, HttpHeaders) - 类 中的方法org.apache.hadoop.hbase.rest.NamespacesInstanceResource
-
Build a response for PUT alter namespace with no properties specified.
- putPeerData(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets the serialized peer configuration data
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putShort(short) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putShort(ByteBuffer, short) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Put a short value out to the given ByteBuffer's current position in big-endian format.
- putShort(ByteBuffer, int, short) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- putShort(int, short) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store the short value at index
- putShort(byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Put a short value out to the specified byte array position.
- putShort(short) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store short val at the next position in this range.
- putShort(int, short) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- putShort(short) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putShort(short) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putShort(int, short) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putShort(byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put a short value out to the specified byte array position in big-endian format.
- putShort(ByteBuffer, int, short) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Put a short value out to the specified BB position in big-endian format.
- putShortUnsafe(byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- PutSortReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Emits sorted Puts.
- PutSortReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- putsToMetaTable(Connection, List<Put>) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Put the passed ps to the hbase:meta table.
- putTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putVLong(long) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- putVLong(int, long) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Store the long value at index as a VLong
- putVLong(long) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Store the long val at the next position as a VLong
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- putVLong(long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- putVLong(long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- putVLong(int, long) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- R - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'R'
- RackManager - org.apache.hadoop.hbase.master中的类
-
Wrapper over the rack resolution utility in Hadoop.
- RackManager() - 类 的构造器org.apache.hadoop.hbase.master.RackManager
-
- RackManager(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.RackManager
-
- random - 类 中的静态变量org.apache.hadoop.hbase.filter.RandomRowFilter
-
- random(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Fill given array with random bytes.
- random(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Fill given array with random bytes at the specified position.
- randomAssignment(RegionInfo, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- randomAssignment(RegionInfo, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Get a random region server from the list
- randomAssignment(RegionInfo, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- RandomizedMatrix(int, int) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Create a randomization scheme for a matrix of a given size.
- RandomRowFilter - org.apache.hadoop.hbase.filter中的类
-
A filter that includes rows based on a chance.
- RandomRowFilter(float) - 类 的构造器org.apache.hadoop.hbase.filter.RandomRowFilter
-
Create a new filter with a specified chance for a row to be included.
- RateLimiter - org.apache.hadoop.hbase.quotas中的类
-
Simple rate limiter.
- RateLimiter() - 类 的构造器org.apache.hadoop.hbase.quotas.RateLimiter
-
- RAW_SCAN - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ExportUtils
-
- RawByte - org.apache.hadoop.hbase.types中的类
-
- RawByte() - 类 的构造器org.apache.hadoop.hbase.types.RawByte
-
- RawBytes - org.apache.hadoop.hbase.types中的类
-
- RawBytes() - 类 的构造器org.apache.hadoop.hbase.types.RawBytes
-
- RawBytes(Order) - 类 的构造器org.apache.hadoop.hbase.types.RawBytes
-
- RawBytesFixedLength - org.apache.hadoop.hbase.types中的类
-
- RawBytesFixedLength(Order, int) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesFixedLength
-
Create a RawBytesFixedLength using the specified order
and length.
- RawBytesFixedLength(int) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesFixedLength
-
Create a RawBytesFixedLength of the specified length.
- RawBytesTerminated - org.apache.hadoop.hbase.types中的类
-
- RawBytesTerminated(Order, byte[]) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesTerminated
-
Create a RawBytesTerminated using the specified terminator and
order.
- RawBytesTerminated(Order, String) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesTerminated
-
Create a RawBytesTerminated using the specified terminator and
order.
- RawBytesTerminated(byte[]) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesTerminated
-
Create a RawBytesTerminated using the specified terminator.
- RawBytesTerminated(String) - 类 的构造器org.apache.hadoop.hbase.types.RawBytesTerminated
-
Create a RawBytesTerminated using the specified terminator.
- RawCell - org.apache.hadoop.hbase中的接口
-
An extended version of cell that gives more power to CPs
- RawCellBuilder - org.apache.hadoop.hbase中的接口
-
Allows creating a cell with
Tag
An instance of this type can be acquired by using RegionCoprocessorEnvironment#getCellBuilder
(for prod code) and
RawCellBuilderFactory (for unit tests).
- RawCellBuilderFactory - org.apache.hadoop.hbase中的类
-
Factory for creating cells for CPs.
- rawCells() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Return the array of Cells backing this Result instance.
- RawDouble - org.apache.hadoop.hbase.types中的类
-
- RawDouble() - 类 的构造器org.apache.hadoop.hbase.types.RawDouble
-
- RawFloat - org.apache.hadoop.hbase.types中的类
-
- RawFloat() - 类 的构造器org.apache.hadoop.hbase.types.RawFloat
-
- RawInteger - org.apache.hadoop.hbase.types中的类
-
- RawInteger() - 类 的构造器org.apache.hadoop.hbase.types.RawInteger
-
- RawLong - org.apache.hadoop.hbase.types中的类
-
- RawLong() - 类 的构造器org.apache.hadoop.hbase.types.RawLong
-
- RawScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for raw scan.
- RawScanQueryMatcher(Scan, ScanInfo, ColumnTracker, boolean, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- RawShort - org.apache.hadoop.hbase.types中的类
-
- RawShort() - 类 的构造器org.apache.hadoop.hbase.types.RawShort
-
- RawString - org.apache.hadoop.hbase.types中的类
-
- RawString() - 类 的构造器org.apache.hadoop.hbase.types.RawString
-
- RawString(Order) - 类 的构造器org.apache.hadoop.hbase.types.RawString
-
- RawStringFixedLength - org.apache.hadoop.hbase.types中的类
-
- RawStringFixedLength(Order, int) - 类 的构造器org.apache.hadoop.hbase.types.RawStringFixedLength
-
Create a RawStringFixedLength using the specified
order and length.
- RawStringFixedLength(int) - 类 的构造器org.apache.hadoop.hbase.types.RawStringFixedLength
-
Create a RawStringFixedLength of the specified length.
- RawStringTerminated - org.apache.hadoop.hbase.types中的类
-
- RawStringTerminated(Order, byte[]) - 类 的构造器org.apache.hadoop.hbase.types.RawStringTerminated
-
Create a RawStringTerminated using the specified terminator and
order.
- RawStringTerminated(Order, String) - 类 的构造器org.apache.hadoop.hbase.types.RawStringTerminated
-
Create a RawStringTerminated using the specified terminator and
order.
- RawStringTerminated(byte[]) - 类 的构造器org.apache.hadoop.hbase.types.RawStringTerminated
-
Create a RawStringTerminated using the specified terminator.
- RawStringTerminated(String) - 类 的构造器org.apache.hadoop.hbase.types.RawStringTerminated
-
Create a RawStringTerminated using the specified terminator.
- read() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferInputStream
-
Reads the next byte of data from this input stream.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferInputStream
-
Reads up to next len bytes of data from buffer into passed array(starting from
given offset).
- read() - 类 中的方法org.apache.hadoop.hbase.io.ByteBuffInputStream
-
Reads the next byte of data from this input stream.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBuffInputStream
-
Reads up to next len bytes of data from buffer into passed array(starting from
given offset).
- read() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
- read(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
Read bytes starting from the specified position.
- read(DataInputStream) - 枚举 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- read(ByteBuff) - 枚举 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockType
-
- read(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
Read a Reference from FileSystem.
- read(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- read(ReadableByteChannel) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Reads bytes from the given channel into this ByteBuff
- read(ReadableByteChannel) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
- read(ReadableByteChannel) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- read(DataInput) - 枚举 中的静态方法org.apache.hadoop.hbase.security.AuthMethod
-
Read from in
- read() - 类 中的方法org.apache.hadoop.hbase.util.Base64.Base64InputStream
-
Reads enough of the input stream to convert to/from Base64 and returns
the next byte.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.Base64.Base64InputStream
-
- READ_OPERATION_LATENCY_DESC - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- READ_OPERATION_LATENCY_NAME - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- READ_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- READ_QUEUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- READ_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- READ_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- READ_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- READ_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- READ_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- readAllVersions() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get all available versions.
- readAllVersions() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get all available versions.
- readAllVersions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- readAndCheck(DataInputStream) - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
Reads a magic record of the length
BlockType.MAGIC_LENGTH from the given
stream and expects it to match this block type.
- readAndCheck(ByteBuffer) - 枚举 中的方法org.apache.hadoop.hbase.io.hfile.BlockType
-
Reads a magic record of the length
BlockType.MAGIC_LENGTH from the given
byte buffer and expects it to match this block type.
- readAndUpdateNewBlock(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- readAsInt(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Converts a ByteBuffer to an int value
- readAsInt(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to an int value
- readAsVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Reads a zero-compressed encoded long from input buffer and returns it.
- readBlock(long, long, boolean, boolean, boolean, boolean, BlockType, DataBlockEncoding) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.CachingBlockReader
-
Read in a file block.
- readBlock(long, long, boolean, boolean, boolean, boolean, BlockType, DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- readByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Read byte-array written with a WritableableUtils.vint prefix.
- readByteArrayThrowsRuntime(DataInput) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Read byte-array written with a WritableableUtils.vint prefix.
- readCell(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.mob.MobFile
-
Reads a cell from the mob file.
- readCell(Cell, boolean, long) - 类 中的方法org.apache.hadoop.hbase.mob.MobFile
-
Reads a cell from the mob file.
- readClusterIdZNode(ZKWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKClusterId
-
- readCompressedInt(ByteBuff) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
Read integer from ByteBuff coded in 7 bits and increment position.
- readCompressedInt(InputStream) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Read integer from stream coded in 7 bits and increment position.
- readCompressedInt(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Read integer from buffer coded in 7 bits and increment position.
- reader - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- ReaderBase - org.apache.hadoop.hbase.regionserver.wal中的类
-
- ReaderBase() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Default constructor.
- ReadExampleCallable(Connection, TableName) - 类 的构造器org.apache.hadoop.hbase.client.example.MultiThreadedClientExample.ReadExampleCallable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellWritableComparable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Reads the values of each field.
- readFieldsFromPb(WALProtos.WALKey, WALCellCodec.ByteStringUncompressor) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- readFromCells(Codec.Decoder, int) - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
Reads WALEdit from cells.
- readFromStream(FSDataInputStream, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Reads a file trailer from the given file.
- readHeader(WALProtos.WALHeader.Builder, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- readHeader(WALProtos.WALHeader.Builder, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- readKeyValueLen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- readLong(InputStream) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
- readLong(ByteBuff, int) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
Read long which was written to fitInBytes bytes and increment position.
- readLong(InputStream, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Read long which was written to fitInBytes bytes and increment position.
- readLong(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Read long which was written to fitInBytes bytes and increment position.
- readMetaState(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- readMvccVersion(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
Read mvcc.
- readMyEphemeralNodeOnDisk() - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
read the content of znode file, expects a single line.
- readNext(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- readNext(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Read next entry.
- readNext(TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- readNextDataBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
Scans blocks in the "scanned" section of the
HFile until the next
data block is found.
- READONLY - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Used by rest interface to access this metadata attribute
which denotes if the table is Read Only.
- READONLY - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- readOnly() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
已过时。
Is this operation read only?
- ReadOnlyByteRangeException - org.apache.hadoop.hbase.util中的异常错误
-
Exception thrown when a read only byte range is modified
- ReadOnlyByteRangeException() - 异常错误 的构造器org.apache.hadoop.hbase.util.ReadOnlyByteRangeException
-
- ReadOnlyZKClient - org.apache.hadoop.hbase.zookeeper中的类
-
A very simple read only zookeeper implementation without watcher support.
- ReadOnlyZKClient(Configuration) - 类 的构造器org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- readPrev(TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- readPt - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- readRawVarint32(InputStream) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
- readRawVarint32(ByteBuff) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
- readRawVarint32(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
Reads a varInt value stored in an array.
- readRawVarint32(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
- readSnapshotInfo(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Read in the HBaseProtos.SnapshotDescription stored for the snapshot in the passed directory
- readStringFixedSize(DataInput, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Reads a fixed-size field and interprets it as a string padded with zeros.
- readTimestamp(ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder.DiffCompressionState
-
- readTO - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- readVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get up to the specified number of versions of each column.
- readVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get up to the specified number of versions of each column.
- readVIntValuePart(Tag, int) - 类 中的静态方法org.apache.hadoop.hbase.TagUtil
-
Reads an int value stored as a VInt at tag's given offset.
- readVLong(ByteBuff) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
Similar to
WritableUtils.readVLong(java.io.DataInput) but reads from a
ByteBuff.
- readVLong(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Similar to
WritableUtils.readVLong(DataInput) but reads from a
ByteBuffer.
- readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- readZKNodes(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKServerTool
-
- realSeekDone() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
We optimize our store scanners by checking the most recent store file
first, so we sometimes pretend we have done a seek but delay it until the
store scanner bubbles up to the top of the key-value heap.
- realSeekDone() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- realSeekDone() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
This scanner is working solely on the in-memory MemStore and doesn't work on
store files, MutableCellSetSegmentScanner always does the seek,
therefore always returning true.
- realSeekDone() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- REASSIGN_WAIT_INTERVAL_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- rebuildMeta(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Rebuilds meta from information in hdfs/fs.
- receive(ForeignException) - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- receive(ForeignException) - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionListener
-
Receive a ForeignException.
- RECEIVED_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- RECEIVED_BYTES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- receivedBytes(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- receivedBytes(int) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- receivedRequest(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- receivedRequest(long) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- recommissionRegionServer(ServerName, List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Remove decommission marker from a region server to allow regions assignments.
- recommissionRegionServer(ServerName, List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Remove decommission marker from a region server to allow regions assignments.
- recommissionRegionServer(ServerName, List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- recommissionRegionServer(RpcController, MasterProtos.RecommissionRegionServerRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- recommissionRegionServer(ServerName, List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Remove decommission marker (previously called 'draining') from a region server to allow regions
assignments.
- recommissionRegionServer(RpcController, MasterProtos.RecommissionRegionServerRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reconnect(KeeperException) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
A private method used to re-establish a zookeeper session with a peer cluster.
- reconnectAfterExpiration() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- reconnectAfterExpiration() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- RecordReader() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- recordReadOperationLatency(long) - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Record the latency incurred for read operations.
- recordReadOperationLatency(long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- recordSyncOperationLatency(long) - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Record the latency incurred for sync operations.
- recordSyncOperationLatency(long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- recordWriteOperationLatency(long) - 接口 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
Record the latency incurred for write operations.
- recordWriteOperationLatency(long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSourceImpl
-
- RecoverableZooKeeper - org.apache.hadoop.hbase.zookeeper中的类
-
A zookeeper that can handle 'recoverable' errors.
- RecoverableZooKeeper(String, int, Watcher, int, int, int) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- RecoverableZooKeeper(String, int, Watcher, int, int, int, String) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- recoverAndClose(CancelableProgressable) - 接口 中的方法org.apache.hadoop.hbase.io.asyncfs.AsyncFSOutput
-
The close method when error occurred.
- recoverAndClose(CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutput
-
The close method when error occurred.
- recoverAndClose(CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.io.asyncfs.WrapperAsyncFSOutput
-
- RECOVERED_EDITS_DIR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- recoverFileLease(FileSystem, Path, Configuration, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.util.FSHDFSUtils
-
Recover the lease from HDFS, retrying multiple times.
- recoverFileLease(FileSystem, Path, Configuration, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils
-
Recover file lease.
- recoverTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- RECOVERY_RETRY - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- RECOVERY_RETRY_INTERVAL_MILLIS - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.ReadOnlyZKClient
-
- recreateScanners(List<KeyValueScanner>, boolean, boolean, boolean, ScanQueryMatcher, byte[], boolean, byte[], boolean, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Recreates the scanners on the current list of active store file scanners
- RedirectServlet(InfoServer, String) - 类 的构造器org.apache.hadoop.hbase.master.HMaster.RedirectServlet
-
- reduce(Stack<ByteBuffer>, Stack<Filter>, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.filter.ParseFilter
-
This function is called while parsing the filterString and an operator is parsed
- reduce(ImmutableBytesWritable, Iterator<Put>, OutputCollector<ImmutableBytesWritable, Put>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.IdentityTableReduce
-
No aggregation, output pairs of (key, record)
- reduce(ImmutableBytesWritable, Iterable<Cell>, Reducer<ImmutableBytesWritable, Cell, ImmutableBytesWritable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSortReducer
-
- reduce(Writable, Iterable<Mutation>, Reducer<Writable, Mutation, Writable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IdentityTableReducer
-
Writes each given record, consisting of the row key and the given values,
to the configured OutputFormat.
- reduce(Import.CellWritableComparable, Iterable<Cell>, Reducer<Import.CellWritableComparable, Cell, ImmutableBytesWritable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellReducer
-
- reduce(Import.KeyValueWritableComparable, Iterable<KeyValue>, Reducer<Import.KeyValueWritableComparable, KeyValue, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueReducer
-
已过时。
- reduce(ImmutableBytesWritable, Iterable<KeyValue>, Reducer<ImmutableBytesWritable, KeyValue, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSortReducer
-
已过时。
- reduce(K, Iterable<Put>, Reducer<K, Put, K, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutCombiner
-
- reduce(ImmutableBytesWritable, Iterable<Put>, Reducer<ImmutableBytesWritable, Put, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- reduce(ImmutableBytesWritable, Iterable<Text>, Reducer<ImmutableBytesWritable, Text, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- REENTRANT_LOCK - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for ReentrantReadWriteLock
- Reference - org.apache.hadoop.hbase.io中的类
-
A reference to the top or bottom half of a store file where 'bottom' is the first half
of the file containing the keys that sort lowest and 'top' is the second half
of the file with keys that sort greater than those of the bottom half.
- Reference() - 类 的构造器org.apache.hadoop.hbase.io.Reference
-
- REFERENCE - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Reference size is 8 bytes on 64-bit, 4 bytes on 32-bit
- referenceCache - 类 中的变量org.apache.hadoop.hbase.util.ObjectPool
-
Does not permit null keys.
- ReferenceFileFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.ReferenceFileFilter
-
- refill(long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- refill(long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- ReflectionUtils - org.apache.hadoop.hbase.util中的类
-
- ReflectionUtils() - 类 的构造器org.apache.hadoop.hbase.util.ReflectionUtils
-
- refresh() - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Refresh/reload the group information from the persistent store
- REFRESH_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.quotas.QuotaCache
-
- refreshAndGetReplicationLoad() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Refresh and Get ReplicationLoad
- refreshAuthManager(PolicyProvider) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- refreshAuthManager(PolicyProvider) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Refresh authentication manager policy.
- refreshHFiles(TableName) - 类 中的方法org.apache.hadoop.hbase.client.example.RefreshHFilesClient
-
- refreshHFiles(Table) - 类 中的方法org.apache.hadoop.hbase.client.example.RefreshHFilesClient
-
- RefreshHFilesClient - org.apache.hadoop.hbase.client.example中的类
-
This client class is for invoking the refresh HFile function deployed on the
Region Server side via the RefreshHFilesService.
- RefreshHFilesClient(Configuration) - 类 的构造器org.apache.hadoop.hbase.client.example.RefreshHFilesClient
-
Constructor with Conf object
- refreshPeerConfig(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- refreshPeerState(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- refreshStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- refreshStoreFiles(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- refreshStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- refreshStoreFiles(Collection<String>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Replaces the store files that the store has with the given files.
- refreshStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Check the region's underlying store files, open the files that have not
been opened yet, and remove the store file readers for store files no
longer available.
- refreshStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Checks the underlying store files, and opens the files that have not been opened, and removes
the store file readers for store files no longer available.
- RegexStringComparator - org.apache.hadoop.hbase.filter中的类
-
- RegexStringComparator(String) - 类 的构造器org.apache.hadoop.hbase.filter.RegexStringComparator
-
Constructor
Adds Pattern.DOTALL to the underlying Pattern
- RegexStringComparator(String, RegexStringComparator.EngineType) - 类 的构造器org.apache.hadoop.hbase.filter.RegexStringComparator
-
Constructor
Adds Pattern.DOTALL to the underlying Pattern
- RegexStringComparator(String, int) - 类 的构造器org.apache.hadoop.hbase.filter.RegexStringComparator
-
Constructor
- RegexStringComparator(String, int, RegexStringComparator.EngineType) - 类 的构造器org.apache.hadoop.hbase.filter.RegexStringComparator
-
Constructor
- RegexStringComparator.EngineType - org.apache.hadoop.hbase.filter中的枚举
-
Engine implementation type (default=JAVA)
- regexStringType - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
RegexStringType byte array
- region - 类 中的变量org.apache.hadoop.hbase.regionserver.FlushPolicy
-
The region configured for this flush policy.
- region - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- Region - org.apache.hadoop.hbase.regionserver中的接口
-
Region is a subset of HRegion with operations required for the
Coprocessors.
- region - 类 中的变量org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
The region configured for this split policy.
- Region.Operation - org.apache.hadoop.hbase.regionserver中的枚举
-
- Region.RowLock - org.apache.hadoop.hbase.regionserver中的接口
-
Row lock held by a given thread.
- REGION_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- REGION_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- REGION_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- REGION_EVENT - 类 中的静态变量org.apache.hadoop.hbase.wal.WALEdit
-
- REGION_GROUPING_STRATEGY - 类 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- REGION_IMPL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REGION_INFO_FILE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Name of the region info file that resides just under the region directory.
- REGION_MEMSTORE_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
The flag to indicate whether or not the memstore should be
replicated for read-replicas (CONSISTENCY => TIMELINE).
- REGION_MEMSTORE_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- REGION_MERGES_DIR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Temporary subdirectory of the region directory used for merges.
- REGION_REPLICA_REPLICATION_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Whether asynchronous WAL replication to the secondary region replicas is enabled or not.
- REGION_REPLICA_STORE_FILE_REFRESH - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Enables or disables refreshing store files of secondary region replicas when the memory is
above the global memstore lower limit.
- REGION_REPLICA_STORE_FILE_REFRESH_MEMSTORE_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
The multiplier to use when we want to refresh a secondary region instead of flushing a primary
region.
- REGION_REPLICA_WAIT_FOR_PRIMARY_FLUSH_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RegionReplicaUtil
-
Whether or not the secondary region will wait for observing a flush / region open event
from the primary region via async wal replication before enabling read requests.
- REGION_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
The number of region replicas for the table.
- REGION_REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- REGION_SERVER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Optional specification of the rs class name of the peer cluster
- REGION_SERVER_HANDLER_ABORT_ON_ERROR_PERCENT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REGION_SERVER_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REGION_SERVER_HIGH_PRIORITY_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REGION_SERVER_IMPL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for what region server implementation to use.
- REGION_SERVER_IMPL - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Optional specification of the rs impl name of the peer cluster
- REGION_SERVER_REGION_SPLIT_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- REGION_SERVER_REPLICATION_HANDLER_COUNT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REGION_SERVER_RPC_SCHEDULER_FACTORY_CLASS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
RPC scheduler to use for the region server.
- REGION_SPLIT_THREADS_MAX - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The max number of threads used for splitting storefiles in parallel during
the region split process.
- REGION_SPLITS_DIR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Temporary subdirectory of the region directory used for splits.
- RegionAdminServiceCallable<T> - org.apache.hadoop.hbase.client中的类
-
Similar to RegionServerCallable but for the AdminService interface.
- RegionAdminServiceCallable(ClusterConnection, RpcControllerFactory, TableName, byte[]) - 类 的构造器org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- RegionAdminServiceCallable(ClusterConnection, RpcControllerFactory, HRegionLocation, TableName, byte[]) - 类 的构造器org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- RegionAdminServiceCallable(ClusterConnection, RpcControllerFactory, HRegionLocation, TableName, byte[], int) - 类 的构造器org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- regionClosed(RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.master.AssignmentListener
-
The region was closed on the region server.
- RegionCoprocessor - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionCoprocessorHost - org.apache.hadoop.hbase.regionserver中的类
-
Implements the coprocessor environment and runtime support for coprocessors
loaded within a
Region.
- RegionCoprocessorHost(HRegion, RegionServerServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Constructor
- RegionCoprocessorService(CoprocessorService) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.RegionCoprocessorService
-
已过时。
- RegionCoprocessorServiceExec - org.apache.hadoop.hbase.client中的类
-
Represents a coprocessor service method execution against a single region.
- RegionCoprocessorServiceExec(byte[], byte[], Descriptors.MethodDescriptor, Message) - 类 的构造器org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- RegionDirFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.util.FSUtils.RegionDirFilter
-
- regionDirPattern - 类 中的静态变量org.apache.hadoop.hbase.util.FSUtils.RegionDirFilter
-
- RegionException - org.apache.hadoop.hbase中的异常错误
-
Thrown when something happens related to region handling.
- RegionException() - 异常错误 的构造器org.apache.hadoop.hbase.RegionException
-
default constructor
- RegionException(String) - 异常错误 的构造器org.apache.hadoop.hbase.RegionException
-
Constructor
- regionFavoredNodesMap - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Map of encoded region names to the DataNode locations they should be hosted on
We store the value as InetSocketAddress since this is used only in HDFS
API (create() that takes favored nodes as hints for placing file blocks).
- RegionGroupingProvider - org.apache.hadoop.hbase.wal中的类
-
A WAL Provider that returns a WAL per group of regions.
- RegionGroupingProvider() - 类 的构造器org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- RegionGroupingProvider.RegionGroupingStrategy - org.apache.hadoop.hbase.wal中的接口
-
Map identifiers to a group number.
- RegionInfo - org.apache.hadoop.hbase.client中的接口
-
Information about a region.
- REGIONINFO_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The regioninfo column qualifier
- REGIONINFO_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The RegionInfo qualifier as a string
- RegionInfoBuilder - org.apache.hadoop.hbase.client中的类
-
- RegionInfoDisplay - org.apache.hadoop.hbase.client中的类
-
Utility used composing RegionInfo for 'display'; e.g. on the web UI
- RegionInfoDisplay() - 类 的构造器org.apache.hadoop.hbase.client.RegionInfoDisplay
-
- RegionLoad - org.apache.hadoop.hbase中的类
-
- RegionLoad(ClusterStatusProtos.RegionLoad) - 类 的构造器org.apache.hadoop.hbase.RegionLoad
-
已过时。
- regionLoadPB - 类 中的变量org.apache.hadoop.hbase.RegionLoad
-
已过时。
- RegionLoadStats - org.apache.hadoop.hbase.client中的类
-
POJO representing region server load
- RegionLoadStats(int, int, int) - 类 的构造器org.apache.hadoop.hbase.client.RegionLoadStats
-
- RegionLocations - org.apache.hadoop.hbase中的类
-
Container for holding a list of
HRegionLocation's that correspond to the
same range.
- RegionLocations(HRegionLocation...) - 类 的构造器org.apache.hadoop.hbase.RegionLocations
-
Constructs the region location list.
- RegionLocations(Collection<HRegionLocation>) - 类 的构造器org.apache.hadoop.hbase.RegionLocations
-
- RegionLocator - org.apache.hadoop.hbase.client中的接口
-
Used to view region location information for a single HBase table.
- regionLock(List<RegionInfo>, String, Abortable) - 类 中的方法org.apache.hadoop.hbase.client.locking.LockServiceClient
-
Create a new EntityLock object to acquire exclusive lock on multiple regions of same tables.
- regionLock(List<RegionInfo>, String, Abortable) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- regionLock(List<RegionInfo>, String, Abortable) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Master based locks on namespaces/tables/regions.
- regionMaximumEditLogSeqNum - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- regionMaxSeqIdInStores - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- RegionMetrics - org.apache.hadoop.hbase中的接口
-
Encapsulates per-region load metrics.
- RegionMetricsBuilder - org.apache.hadoop.hbase中的类
-
- RegionMovedException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Subclass if the server knows the region is now on another server.
- RegionMovedException(ServerName, long) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.RegionMovedException
-
- RegionMovedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.RegionMovedException
-
For hadoop.ipc internal call.
- RegionMover - org.apache.hadoop.hbase.util中的类
-
Tool for loading/unloading regions to/from given regionserver This tool can be run from Command
line directly as a utility.
- RegionMover.RegionMoverBuilder - org.apache.hadoop.hbase.util中的类
-
Builder for Region mover.
- RegionMoverBuilder(String) - 类 的构造器org.apache.hadoop.hbase.util.RegionMover.RegionMoverBuilder
-
- RegionNormalizerTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks region normalizer state up in ZK
- RegionNormalizerTracker(ZKWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
- regionNormalizerZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- RegionObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Coprocessors implement this interface to observe and mediate client actions on the region.
- RegionObserver.MutationType - org.apache.hadoop.hbase.coprocessor中的枚举
-
Mutation type for postMutationBeforeWAL hook
- regionOffline(RegionInfo) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Marks the region as offline at balancer.
- regionOffline(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- RegionOfflineException - org.apache.hadoop.hbase.client中的异常错误
-
Thrown when a table can not be located
- RegionOfflineException() - 异常错误 的构造器org.apache.hadoop.hbase.client.RegionOfflineException
-
default constructor
- RegionOfflineException(String) - 异常错误 的构造器org.apache.hadoop.hbase.client.RegionOfflineException
-
- regionOnline(RegionInfo, ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Marks the region as online at balancer.
- regionOnline(RegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- regionOpened(RegionInfo, ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.AssignmentListener
-
The region was opened on the specified server.
- RegionOpeningException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Subclass if the server knows the region is now on another server.
- RegionOpeningException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.RegionOpeningException
-
- RegionPlacementMaintainer - org.apache.hadoop.hbase.master中的类
-
A tool that is used for manipulating and viewing favored nodes information
for regions.
- RegionPlacementMaintainer(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- RegionPlacementMaintainer(Configuration, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- RegionPlacementMaintainer.RandomizedMatrix - org.apache.hadoop.hbase.master中的类
-
Some algorithms for solving the assignment problem may traverse workers or
jobs in linear order which may result in skewing the assignments of the
first jobs in the matrix toward the last workers in the matrix if the
costs are uniform.
- RegionPlan - org.apache.hadoop.hbase.master中的类
-
Stores the plan for the move of an individual region.
- RegionPlan(RegionInfo, ServerName, ServerName) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlan
-
Instantiate a plan for a region move, moving the specified region from
the specified source server to the specified destination server.
- RegionPlan.RegionPlanComparator - org.apache.hadoop.hbase.master中的类
-
- RegionPlanComparator() - 类 的构造器org.apache.hadoop.hbase.master.RegionPlan.RegionPlanComparator
-
- RegionRepairException(String, IOException) - 异常错误 的构造器org.apache.hadoop.hbase.util.HBaseFsck.RegionRepairException
-
- RegionReplicaUtil - org.apache.hadoop.hbase.client中的类
-
Utility methods which contain the logic for regions and replicas.
- RegionReplicaUtil() - 类 的构造器org.apache.hadoop.hbase.client.RegionReplicaUtil
-
- RegionScanner - org.apache.hadoop.hbase.regionserver中的接口
-
RegionScanner describes iterators over rows in an HRegion.
- REGIONSERVER - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
region server process name
- REGIONSERVER_ADMIN_SERVICE_CONFIG - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Services launched in RSRpcServices.
- REGIONSERVER_CLIENT_SERVICE_CONFIG - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- REGIONSERVER_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- REGIONSERVER_INFO_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
A configuration key for regionserver info port
- REGIONSERVER_INFO_PORT_AUTO - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
A flag that enables automatic selection of regionserver info port
- REGIONSERVER_META_STOREFILE_REFRESH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
Whether all storefiles should be refreshed, as opposed to just hbase:meta's
Meta region doesn't have WAL replication for replicas enabled yet
- REGIONSERVER_METRICS_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The period (in milliseconds) between computing region server point in time metrics
- REGIONSERVER_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for port region server listens on.
- REGIONSERVER_STOREFILE_REFRESH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
The period (in milliseconds) for refreshing the store files for the secondary regions.
- RegionServerAbortedException - org.apache.hadoop.hbase.regionserver中的异常错误
-
Thrown by the region server when it is aborting.
- RegionServerAbortedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RegionServerAbortedException
-
- RegionServerAccounting - org.apache.hadoop.hbase.regionserver中的类
-
RegionServerAccounting keeps record of some basic real time information about
the Region Server.
- RegionServerAccounting(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- RegionServerCallable<T,S> - org.apache.hadoop.hbase.client中的类
-
Implementations make a RPC call against a RegionService via a protobuf Service.
- RegionServerCallable(Connection, TableName, byte[], RpcController) - 类 的构造器org.apache.hadoop.hbase.client.RegionServerCallable
-
- RegionServerCallable(Connection, TableName, byte[], RpcController, int) - 类 的构造器org.apache.hadoop.hbase.client.RegionServerCallable
-
- RegionServerCoprocessor - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionServerCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionServerCoprocessorHost - org.apache.hadoop.hbase.regionserver中的类
-
- RegionServerCoprocessorHost(RegionServerServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- RegionServerCoprocessorRpcChannelImpl - org.apache.hadoop.hbase.client中的类
-
The implementation of a region server based coprocessor rpc channel.
- RegionServerCoprocessorService(SingletonCoprocessorService) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorServiceBackwardCompatiblity.RegionServerCoprocessorService
-
已过时。
- RegionServerObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Defines coprocessor hooks for interacting with operations on the
HRegionServer process.
- regionServerRemoved(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationListener
-
A region server has been removed from the local cluster
- regionServerReport(RpcController, RegionServerStatusProtos.RegionServerReportRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- regionServerReport(ServerName, ServerMetrics) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- RegionServerRpcQuotaManager - org.apache.hadoop.hbase.quotas中的类
-
Region Server Quota Manager.
- RegionServerRpcQuotaManager(RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
- RegionServerRunningException - org.apache.hadoop.hbase.regionserver中的异常错误
-
Thrown if the region server log directory exists (which indicates another
region server is running at the same address)
- RegionServerRunningException() - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RegionServerRunningException
-
Default Constructor
- RegionServerRunningException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RegionServerRunningException
-
Constructs the exception and supplies a string as the message
- RegionServerServices - org.apache.hadoop.hbase.regionserver中的接口
-
- RegionServerServices.PostOpenDeployContext - org.apache.hadoop.hbase.regionserver中的类
-
Context for postOpenDeployTasks().
- RegionServerServices.RegionStateTransitionContext - org.apache.hadoop.hbase.regionserver中的类
-
- RegionServerSpaceQuotaManager - org.apache.hadoop.hbase.quotas中的类
-
A manager for filesystem space quotas in the RegionServer.
- RegionServerSpaceQuotaManager(RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- regionServerStartup(RpcController, RegionServerStatusProtos.RegionServerStartupRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- RegionServerStoppedException - org.apache.hadoop.hbase.regionserver中的异常错误
-
Thrown by the region server when it is in shutting down state.
- RegionServerStoppedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RegionServerStoppedException
-
- RegionServerTableMetrics - org.apache.hadoop.hbase.regionserver中的类
-
Captures operation metrics by table.
- RegionServerTableMetrics() - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerTableMetrics
-
- RegionServerThread(HRegionServer, int) - 类 的构造器org.apache.hadoop.hbase.util.JVMClusterUtil.RegionServerThread
-
- RegionServerTracker - org.apache.hadoop.hbase.master中的类
-
Tracks the online region servers via ZK.
- RegionServerTracker(ZKWatcher, MasterServices, ServerManager) - 类 的构造器org.apache.hadoop.hbase.master.RegionServerTracker
-
- RegionServicesForStores - org.apache.hadoop.hbase.regionserver中的类
-
Services a Store needs from a Region.
- RegionServicesForStores(HRegion) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServicesForStores
-
- regionsInTransitionInRS - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- RegionSizeCalculator - org.apache.hadoop.hbase.mapreduce中的类
-
Computes size of each region for given table and given column families.
- RegionSizeCalculator(RegionLocator, Admin) - 类 的构造器org.apache.hadoop.hbase.mapreduce.RegionSizeCalculator
-
Computes size of each region for table and given column families.
- RegionSplitCalculator<R extends KeyRange> - org.apache.hadoop.hbase.util中的类
-
This is a generic region split calculator.
- RegionSplitCalculator(Comparator<R>) - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- RegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
A split policy determines when a Region should be split.
- RegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- RegionSplitter - org.apache.hadoop.hbase.util中的类
-
The
RegionSplitter class provides several utilities to help in the
administration lifecycle for developers who choose to manually split regions
instead of having HBase handle that automatically.
- RegionSplitter() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter
-
- RegionSplitter.DecimalStringSplit - org.apache.hadoop.hbase.util中的类
-
The format of a DecimalStringSplit region boundary is the ASCII representation of
reversed sequential number, or any other uniformly distributed decimal value.
- RegionSplitter.HexStringSplit - org.apache.hadoop.hbase.util中的类
-
- RegionSplitter.NumberStringSplit - org.apache.hadoop.hbase.util中的类
-
- RegionSplitter.SplitAlgorithm - org.apache.hadoop.hbase.util中的接口
-
A generic interface for the RegionSplitter code to use for all it's
functionality.
- RegionSplitter.UniformSplit - org.apache.hadoop.hbase.util中的类
-
A SplitAlgorithm that divides the space of possible keys evenly.
- RegionsResource - org.apache.hadoop.hbase.rest中的类
-
- RegionsResource(TableResource) - 类 的构造器org.apache.hadoop.hbase.rest.RegionsResource
-
Constructor
- RegionState - org.apache.hadoop.hbase.master中的类
-
State of a Region while undergoing transitions.
- RegionState(RegionInfo, RegionState.State, ServerName) - 类 的构造器org.apache.hadoop.hbase.master.RegionState
-
- RegionState(RegionInfo, RegionState.State, long, ServerName) - 类 的构造器org.apache.hadoop.hbase.master.RegionState
-
- RegionState(RegionInfo, RegionState.State, long, ServerName, long) - 类 的构造器org.apache.hadoop.hbase.master.RegionState
-
- RegionState.State - org.apache.hadoop.hbase.master中的枚举
-
- RegionStateListener - org.apache.hadoop.hbase中的接口
-
The listener interface for receiving region state events.
- RegionStateTransitionContext(RegionServerStatusProtos.RegionStateTransition.TransitionCode, long, long, RegionInfo...) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- RegionStatistics() - 类 的构造器org.apache.hadoop.hbase.client.backoff.ServerStatistics.RegionStatistics
-
- RegionStats(MetricRegistry, String) - 类 的构造器org.apache.hadoop.hbase.client.MetricsConnection.RegionStats
-
- RegionTooBusyException - org.apache.hadoop.hbase中的异常错误
-
Thrown by a region server if it will block and wait to serve a request.
- RegionTooBusyException(String) - 异常错误 的构造器org.apache.hadoop.hbase.RegionTooBusyException
-
- register(MetricsRegionSource) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSource
-
Register a MetricsRegionSource as being open.
- register(MetricsRegionSource) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionAggregateSourceImpl
-
- register(String, MetricsTableSource) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSource
-
Register a MetricsTableSource as being open.
- register(String, MetricsTableSource) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableAggregateSourceImpl
-
- registerChildren(ConfigurationManager) - 接口 中的方法org.apache.hadoop.hbase.conf.PropagatingConfigurationObserver
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Needs to be called to register the children to the manager.
- registerDeserializer(CacheableDeserializer<Cacheable>) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
Register the given cacheable deserializer and generate an unique identifier
id for it
- registerFilter(String, String) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Register a new filter with the parser.
- registerFlushRequestListener(FlushRequestListener) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Register a FlushRequestListener
- registerListener() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
set the listener for task changes.
- registerListener() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- registerListener(ServerListener) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Add the listener to the notification list.
- registerListener(ReplicationListener) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationTracker
-
Register a replication listener to receive replication events.
- registerListener(ReplicationListener) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationTrackerZKImpl
-
- registerListener(ZKListener) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Register the specified listener to receive ZooKeeper events.
- registerListenerFirst(ZKListener) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Register the specified listener to receive ZooKeeper events and add it as
the first in the list of current listeners.
- registerObserver(ConfigurationObserver) - 类 中的方法org.apache.hadoop.hbase.conf.ConfigurationManager
-
Register an observer class
- registerPeerConfigListener(ReplicationPeerConfigListener) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
Register a peer config listener to catch the peer config change event.
- registerPeerConfigListener(ReplicationPeerConfigListener) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- registerService(Service) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Registers a new protocol buffer Service subclass as a master coprocessor endpoint.
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Registers a new protocol buffer Service subclass as a coprocessor endpoint to
be available for handling Region#execService(com.google.protobuf.RpcController,
org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall) calls.
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- registerService(Service) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Registers a new protocol buffer Service subclass as a coprocessor endpoint to be
available for handling
- registerTuneObserver(HeapMemoryManager.HeapMemoryTuneObserver) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- registerWALActionsListener(WALActionsListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- registerWALActionsListener(WALActionsListener) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Registers WALActionsListener
- release() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- release() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.RowLock
-
Release the given lock.
- releaseLockEntry(IdLock.Entry) - 类 中的方法org.apache.hadoop.hbase.util.IdLock
-
Must be called in a finally block to decrease the internal counter and
remove the monitor object for the given id if the caller is the last
client.
- releaseResources() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
Release the resources it uses (The ByteBuffers) which are obtained from pool.
- relocateRegion(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Find the location of the region of tableName that row
lives in, ignoring any value that might be in the cache.
- relocateRegion(TableName, byte[], int) - 接口 中的方法org.apache.hadoop.hbase.client.ClusterConnection
-
Find the location of the region of tableName that row
lives in, ignoring any value that might be in the cache.
- remaining() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns the number of elements between the current position and the
limit.
- remaining() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns the number of elements between the current position and the
limit.
- remaining() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- remainingCapacity() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remainingCapacity() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- remainingTasksInCoordination() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Return the number of remaining tasks
- remainingTasksInCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- remainingTimeNs() - 类 中的方法org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- RemoteAdmin - org.apache.hadoop.hbase.rest.client中的类
-
- RemoteAdmin(Client, Configuration) - 类 的构造器org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
Constructor
- RemoteAdmin(Client, Configuration, String) - 类 的构造器org.apache.hadoop.hbase.rest.client.RemoteAdmin
-
Constructor
- RemoteHTable - org.apache.hadoop.hbase.rest.client中的类
-
HTable interface to remote tables accessed via REST gateway
- RemoteHTable(Client, String) - 类 的构造器org.apache.hadoop.hbase.rest.client.RemoteHTable
-
Constructor
- RemoteHTable(Client, Configuration, String) - 类 的构造器org.apache.hadoop.hbase.rest.client.RemoteHTable
-
Constructor
- RemoteHTable(Client, Configuration, byte[]) - 类 的构造器org.apache.hadoop.hbase.rest.client.RemoteHTable
-
Constructor
- remoteProcedureComplete(long, Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- remoteProcedureCompleted(long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- remoteProcedureFailed(long, RemoteProcedureException) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- RemoteWithExtrasException - org.apache.hadoop.hbase.ipc中的异常错误
-
A RemoteException with some extra information.
- RemoteWithExtrasException(String, String, boolean) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.RemoteWithExtrasException
-
- RemoteWithExtrasException(String, String, String, int, boolean) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.RemoteWithExtrasException
-
- remove(byte[]) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- remove(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Remove metadata represented by the key from the map
- remove(Bytes) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Remove metadata represented by the key from the map
- remove(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Remove metadata represented by the key from the map
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remove() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remove(HRegionLocation) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Removes the given location from the list
- remove(int) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Removes location of the given replicaId from the list
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- remove() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactorSegmentsIterator
-
- remove() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreMergerSegmentsIterator
-
- remove(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
Remove a node from the cluster
- remove(String, int) - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
Remove a node from the cluster
- remove() - 类 中的方法org.apache.hadoop.hbase.rest.RowResultGenerator
-
- remove() - 类 中的方法org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- remove(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- remove(Object, Object) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- remove() - 类 中的方法org.apache.hadoop.hbase.types.StructIterator
-
- remove(TNode, TNode) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlIterableList
-
- remove(TNode, Object, AvlUtil.AvlKeyComparator<TNode>) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
Removes the node matching the specified key from the tree
- remove(TNode, Object, AvlUtil.AvlKeyComparator<TNode>, AtomicBoolean) - 类 中的静态方法org.apache.hadoop.hbase.util.AvlUtil.AvlTree
-
Removes the node matching the specified key from the tree
- remove() - 类 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- remove() - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists.Iterator
-
- remove(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Removes the table descriptor from the local cache and returns it.
- remove(R) - 接口 中的方法org.apache.hadoop.hbase.util.PoolMap.Pool
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- remove(int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- remove(String) - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- REMOVE_QUOTA_ON_TABLE_DELETE - 类 中的静态变量org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- REMOVE_QUOTA_ON_TABLE_DELETE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- removeAllQueues(ReplicationQueueStorage, String) - 类 中的静态方法org.apache.hadoop.hbase.replication.ReplicationUtils
-
- removeByServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Returns a new RegionLocations with the locations removed (set to null)
which have the destination server as given.
- removeColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Removes the ColumnFamilyDescriptor with name specified by the parameter column
from the table descriptor
- removeColumnFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- removeCompactedFiles(Collection<HStoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Remove the compacted files
- removeCompactedFiles(Collection<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Remove a configuration setting represented by the key.
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Remove a config setting represented by the key from the map
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor.Builder
-
- removeConfiguration(String) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- removeCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Remove a coprocessor from those set on the table
- removeCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- removeCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Remove a coprocessor from those set on the table
- removeDeadServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
remove the specified dead server
- removeExtraHeader(String) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Remove an extra header.
- removeFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Removes the HColumnDescriptor with name specified by the parameter column
from the table descriptor
- removeFavoredNodes(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodesPlan
-
Remove a favored node assignment
- removeFromNamespaceUsage(TableName) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- removeFromNSTable(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- removeFromZKNamespaceManager(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- removeHFileRefs(String, List<String>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove hfile references from the queue.
- removeLastSequenceIds(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove all the max sequence id record for the given peer.
- removeLastSequenceIds(String, List<String>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove the max sequence id record for the given peer and regions.
- removeListener() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
remove the listener for task changes.
- removeListener() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- removeListener(ReplicationListener) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationTracker
-
- removeListener(ReplicationListener) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationTrackerZKImpl
-
- removeMetaData(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKMetadata
-
- removeMobFiles(Configuration, FileSystem, TableName, Path, byte[], Collection<HStoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Archives the mob files.
- removeNamespaceQuota(String) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- removeNamespaceSpaceLimit(String) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Creates a
QuotaSettings object to remove the FileSystem space quota for the given
namespace.
- removeNonDefaultRegions(Collection<RegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.client.RegionReplicaUtil
-
Removes the non-default replicas from the passed regions collection
- removeParentInMeta(Configuration, RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
- removePeer(String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- removePeer(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeers
-
- removePeer(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerStorage
-
Remove a replication peer.
- removePeer(String) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- removePeerFromHFileRefs(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove a peer from hfile reference queue.
- removePeerTableCFs(String, String) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
- removePeerTableCFs(String, Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- removeQueue(ServerName, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove a replication queue for a given regionserver.
- removeQuotesFromByteArray(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.filter.ParseFilter
-
Takes a quoted byte array and converts it into an unquoted byte array
For example: given a byte array representing 'abc', it returns a
byte array representing abc
- removeRegion(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Called by delete table and similar to notify the ServerManager that a region was removed.
- removeRegion(HRegion, ServerName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- removeRegion(HRegion, ServerName) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MutableOnlineRegions
-
Removes the given Region from the list of onlineRegions.
- removeRegionFromNamespaceUsage(RegionInfo) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- removeRegionReplicasFromMeta(Set<byte[]>, int, int, Connection) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Deletes some replica columns corresponding to replicas for the passed rows
- removeRegions(List<RegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Called by delete table and similar to notify the ServerManager that a region was removed.
- removeRegistry(MetricRegistry) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- removeReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Remove a peer and stop the replication.
- removeReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Remove a peer and stop the replication
- removeReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- removeReplicationPeer(RpcController, ReplicationProtos.RemoveReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- removeReplicationPeer(String) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- removeReplicationPeer(RpcController, ReplicationProtos.RemoveReplicationPeerRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- removeReplicationPeer(String) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Removes a peer and stops the replication
- removeReplicationPeerAsync(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Remove a replication peer but does not block and wait for it.
- removeReplicationPeerAsync(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- removeReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Remove some table-cfs from config of the specified peer.
- removeReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Remove some table-cfs from config of the specified peer
- removeReplicationPeerTableCFs(String, Map<TableName, List<String>>) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- removeReplicatorIfQueueIsEmpty(ServerName) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove the record of region server if the queue is empty.
- removeRSGroup(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Removes RegionServer group associated with the given name.
- removeRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- removeRSGroup(String) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Remove a region server group.
- removeServer(Address) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
Remove given server from the group.
- removeServerFromDrainList(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- removeServers(Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdmin
-
Remove decommissioned servers from rsgroup.
1.
- removeServers(Set<Address>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- removeServers(Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
Remove decommissioned servers from rsgroup
- removeShutdownHook(Runnable) - 类 中的方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- removeStoreFile(String, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Archives the specified store file from the specified family.
- removeStoreFiles(String, Collection<HStoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Closes and archives the specified store files from the specified family.
- removeTable(TableName) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- removeTableCFsFromReplicationPeerConfig(Map<TableName, List<String>>, ReplicationPeerConfig, String) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- removeTableFromNamespaceQuota(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
Remove table from namespace quota.
- removeTableSpaceLimit(TableName) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Creates a
QuotaSettings object to remove the FileSystem space quota for the given
table.
- removeValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- removeValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- removeValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- removeValue(Bytes) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- removeValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- removeValue(K, V) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- removeWAL(ServerName, String, String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Remove an WAL file from the given queue for a given regionserver.
- removeWALRootPath(Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Checks for the presence of the WAL log root path (using the provided conf object) in the given
path.
- renameAndSetModifyTime(FileSystem, Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- renew - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- renewLease() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
- renewLease() - 类 中的方法org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- renewLease() - 接口 中的方法org.apache.hadoop.hbase.client.ResultScanner
-
Allow the client to renew the scanner's lease on the server.
- renewLease() - 类 中的方法org.apache.hadoop.hbase.client.TableSnapshotScanner
-
- renewLease(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Renew a lease
- reopenAfterFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- replace(K, V, V) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- replace(K, V) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- replace(Object, TNode) - 接口 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlInsertOrReplace
-
- replay(RpcController, AdminProtos.ReplicateWALEntryRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Replay the given changes when distributedLogReplay WAL edits from a failed RS.
- REPLAY_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- REPLAY_QOS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- replayCompactionMarker(WALProtos.CompactionDescriptor, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Call to complete a compaction.
- replayRecoveredEditsIfAny(Path, Map<byte[], Long>, CancelableProgressable, MonitoredTask) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Read the edits put under this region by wal splitting process.
- REPLICA_ID - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- REPLICA_ID_DELIMITER - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
- REPLICA_ID_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- REPLICA_ID_FORMAT - 接口 中的静态变量org.apache.hadoop.hbase.client.RegionInfo
-
to keep appended int's sorted in string format.
- replicaId - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- replicate(ReplicationEndpoint.ReplicateContext) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Replicate the given set of entries (in the context) to the other cluster.
- replicateAllUserTables() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- ReplicateContext() - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- replicateLogEntries(List<AdminProtos.WALEntry>, CellScanner, String, String, String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationSinkService
-
Carry on the list of log entries down to the sink
- replicateWALEntry(RpcController, AdminProtos.ReplicateWALEntryRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Replicate WAL entries on the region server.
- REPLICATION - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
- REPLICATION_BARRIER_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The replication barrier family
- REPLICATION_BARRIER_FAMILY_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The replication barrier family as a string
- REPLICATION_BULKLOAD_ENABLE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_BULKLOAD_ENABLE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_CLUSTER_ID - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Replication cluster id of source cluster which uniquely identifies itself with peer cluster
- REPLICATION_CODEC_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for setting replication codec class name
- REPLICATION_CONF_DIR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Directory where the source cluster file system client configuration are placed which is used by
sink cluster to copy HFiles from source cluster file system
- REPLICATION_DROP_ON_DELETED_TABLE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Drop edits for tables that been deleted from the replication source and target
- REPLICATION_PARENT_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.MetaTableAccessor
-
- REPLICATION_QOS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- REPLICATION_QUEUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- REPLICATION_SCOPE - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- REPLICATION_SCOPE - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- REPLICATION_SCOPE_BYTES - 接口 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- REPLICATION_SCOPE_BYTES - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- REPLICATION_SCOPE_GLOBAL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Scope tag for globally scoped data.
- REPLICATION_SCOPE_LOCAL - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Scope tag for locally scoped data.
- REPLICATION_SERVICE_CLASSNAME_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_SINK_SERVICE_CLASSNAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_SOURCE_MAXTHREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum number of threads used by the replication source for shipping edits to the sinks
- REPLICATION_SOURCE_MAXTHREADS_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Maximum number of threads used by the replication source for shipping edits to the sinks
- REPLICATION_SOURCE_SERVICE_CLASSNAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_SOURCE_TOTAL_BUFFER_DFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- REPLICATION_SOURCE_TOTAL_BUFFER_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Max total size of buffered entries in all replication peers.
- REPLICATION_WALENTRYFILTER_CONFIG_KEY - 类 中的静态变量org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- REPLICATION_ZNODE - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationStorageBase
-
- REPLICATION_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.replication.ZKReplicationStorageBase
-
- ReplicationAdmin - org.apache.hadoop.hbase.client.replication中的类
-
- ReplicationAdmin(Configuration) - 类 的构造器org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
Constructor that creates a connection to the local ZooKeeper ensemble.
- ReplicationBarrierResult(long[], RegionState.State, List<byte[]>) - 类 的构造器org.apache.hadoop.hbase.MetaTableAccessor.ReplicationBarrierResult
-
- ReplicationChecker - org.apache.hadoop.hbase.util.hbck中的类
-
Check and fix undeleted replication queues for removed peerId.
- ReplicationChecker(Configuration, ZKWatcher, HBaseFsck.ErrorReporter) - 类 的构造器org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- ReplicationEndpoint - org.apache.hadoop.hbase.replication中的接口
-
ReplicationEndpoint is a plugin which implements replication
to other HBase clusters, or other systems.
- ReplicationEndpoint.Context - org.apache.hadoop.hbase.replication中的类
-
- ReplicationEndpoint.ReplicateContext - org.apache.hadoop.hbase.replication中的类
-
- ReplicationException - org.apache.hadoop.hbase.replication中的异常错误
-
An HBase Replication exception.
- ReplicationException() - 异常错误 的构造器org.apache.hadoop.hbase.replication.ReplicationException
-
- ReplicationException(String) - 异常错误 的构造器org.apache.hadoop.hbase.replication.ReplicationException
-
- ReplicationException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.replication.ReplicationException
-
- ReplicationException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.replication.ReplicationException
-
- ReplicationFactory - org.apache.hadoop.hbase.replication中的类
-
A factory class for instantiating replication objects that deal with replication state.
- ReplicationFactory() - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationFactory
-
- REPLICATIONGLOBAL - 类 中的静态变量org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- ReplicationListener - org.apache.hadoop.hbase.replication中的接口
-
The replication listener interface can be implemented if a class needs to subscribe to events
generated by the ReplicationTracker.
- ReplicationLoadSink - org.apache.hadoop.hbase.replication中的类
-
A HBase ReplicationLoad to present MetricsSink information
- ReplicationLoadSink(long, long) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationLoadSink
-
- ReplicationLoadSource - org.apache.hadoop.hbase.replication中的类
-
A HBase ReplicationLoad to present MetricsSource information
- ReplicationLoadSource(String, long, int, long, long) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationLoadSource
-
- ReplicationPeer - org.apache.hadoop.hbase.replication中的接口
-
ReplicationPeer manages enabled / disabled state for the peer.
- ReplicationPeer.PeerState - org.apache.hadoop.hbase.replication中的枚举
-
State of the peer, whether it is enabled or not
- ReplicationPeerConfig - org.apache.hadoop.hbase.replication中的类
-
A configuration for the replication peer cluster.
- ReplicationPeerConfig() - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- ReplicationPeerConfigBuilder - org.apache.hadoop.hbase.replication中的接口
-
- ReplicationPeerConfigListener - org.apache.hadoop.hbase.replication中的接口
-
- ReplicationPeerConfigUtil - org.apache.hadoop.hbase.client.replication中的类
-
Helper for TableCFs Operations.
- ReplicationPeerDescription - org.apache.hadoop.hbase.replication中的类
-
The POJO equivalent of ReplicationProtos.ReplicationPeerDescription
- ReplicationPeerDescription(String, boolean, ReplicationPeerConfig) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationPeerDescription
-
- ReplicationPeerImpl - org.apache.hadoop.hbase.replication中的类
-
- ReplicationPeerImpl(Configuration, String, boolean, ReplicationPeerConfig) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
Constructor that takes all the objects required to communicate with the specified peer, except
for the region server addresses.
- ReplicationPeerNotFoundException - org.apache.hadoop.hbase中的异常错误
-
Thrown when a replication peer can not be found
- ReplicationPeerNotFoundException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ReplicationPeerNotFoundException
-
- ReplicationPeers - org.apache.hadoop.hbase.replication中的类
-
This provides an class for maintaining a set of peer clusters.
- ReplicationPeerStorage - org.apache.hadoop.hbase.replication中的接口
-
Perform read/write to the replication peer storage.
- ReplicationQueueInfo - org.apache.hadoop.hbase.replication中的类
-
This class is responsible for the parsing logic for a queue id representing a queue.
- ReplicationQueueInfo(String) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationQueueInfo
-
The passed queueId will be either the id of the peer or the handling story of that queue
in the form of id-servername-*
- ReplicationQueueStorage - org.apache.hadoop.hbase.replication中的接口
-
Perform read/write to the replication queue storage.
- ReplicationService - org.apache.hadoop.hbase.regionserver中的接口
-
Gateway to Cluster Replication.
- replicationSinkHandler - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ReplicationSinkService - org.apache.hadoop.hbase.regionserver中的接口
-
A sink for a replication stream has to expose this service.
- replicationSourceHandler - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ReplicationSourceService - org.apache.hadoop.hbase.regionserver中的接口
-
A source for a replication stream has to expose this service.
- ReplicationStorageFactory - org.apache.hadoop.hbase.replication中的类
-
Used to create replication storage(peer, queue) classes.
- ReplicationTracker - org.apache.hadoop.hbase.replication中的接口
-
This is the interface for a Replication Tracker.
- ReplicationTrackerZKImpl - org.apache.hadoop.hbase.replication中的类
-
This class is a ZooKeeper implementation of the ReplicationTracker interface.
- ReplicationTrackerZKImpl(ZKWatcher, Abortable, Stoppable) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationTrackerZKImpl
-
- ReplicationTrackerZKImpl.OtherRegionServerWatcher - org.apache.hadoop.hbase.replication中的类
-
Watcher used to be notified of the other region server's death in the local cluster.
- REPLICATIONTYPE - 类 中的静态变量org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- ReplicationUtils - org.apache.hadoop.hbase.replication中的类
-
Helper class for replication.
- replicationZNode - 类 中的变量org.apache.hadoop.hbase.replication.ZKReplicationStorageBase
-
The name of the base znode that contains all replication state.
- replicationZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- report(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- report(HBaseFsck.ErrorReporter) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Print a human readable summary of hfile quarantining operations.
- reportCompactionRequestEnd(boolean, int, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reportCompactionRequestFailure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reportCompactionRequestStart(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reporter - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- reportError(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo, HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportMobCompactionEnd(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- reportMobCompactionStart(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- reportOperationFromWal(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Reports the operation from WAL during replay.
- reportProcedureDone(RpcController, RegionServerStatusProtos.ReportProcedureDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reportRegionSizesForQuotas(Map<RegionInfo, Long>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Reports the given map of Regions and their size on the filesystem to the active Master.
- reportRegionSpaceUse(RpcController, RegionServerStatusProtos.RegionSpaceUseReportRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reportRegionStateTransition(RpcController, RegionServerStatusProtos.ReportRegionStateTransitionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reportRegionStateTransition(RegionServerServices.RegionStateTransitionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- reportRegionStateTransition(RegionServerServices.RegionStateTransitionContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Notify master that a handler requests to change a region state
- reportRSFatalError(RpcController, RegionServerStatusProtos.ReportRSFatalErrorRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- request(Path, Runnable) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- REQUEST_CONTROLLER_IMPL_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.client.RequestControllerFactory
-
- REQUEST_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- REQUEST_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- REQUEST_SIZE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- REQUEST_TOO_BIG_EXCEPTION - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- requestCompaction(HRegion, String, int, CompactionLifeCycleTracker, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestCompaction(HRegion, HStore, String, int, CompactionLifeCycleTracker, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestCompaction(String, int, boolean, CompactionLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- requestCompaction(byte[], String, int, boolean, CompactionLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- requestCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- requestCompaction(int, CompactionLifeCycleTracker, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- requestCompaction(String, int, boolean, CompactionLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Request compaction on this region.
- requestCompaction(byte[], String, int, boolean, CompactionLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Request compaction for the given family
- RequestController - org.apache.hadoop.hbase.client中的接口
-
An interface for client request scheduling algorithm.
- RequestController.Checker - org.apache.hadoop.hbase.client中的接口
-
Picks up the valid data.
- RequestController.ReturnCode - org.apache.hadoop.hbase.client中的枚举
-
- RequestControllerFactory - org.apache.hadoop.hbase.client中的类
-
- RequestControllerFactory() - 类 的构造器org.apache.hadoop.hbase.client.RequestControllerFactory
-
- RequestConverter - org.apache.hadoop.hbase.shaded.protobuf中的类
-
Helper utility to build protocol buffer requests,
or build components for protocol buffer requests.
- requestDelayedFlush(HRegion, long, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Tell the listener the cache needs to be flushed after a delay
- requestFlush(HRegion, boolean, FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Tell the listener the cache needs to be flushed.
- requestFlush(FlushLifeCycleTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- requestFlush(FlushLifeCycleTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Request flush on this region.
- requestLock() - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock
-
Sends rpc to the master to request lock.
- requestLock(RpcController, LockServiceProtos.LockRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- requestLogRoll() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- requestLogRoll(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- requestMobCompaction(TableName, List<ColumnFamilyDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Requests mob compaction.
- requestMobCompaction(Configuration, FileSystem, TableName, List<ColumnFamilyDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterMobCompactionThread
-
Requests mob compaction
- RequestQuoter(HttpServletRequest) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- requestRollAll() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- requestSeek(Cell, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Pretend we have done a seek but don't do it yet, if possible.
- requestSplit(Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestSplit(Region, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestSplit(Region, byte[], User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestSystemCompaction(HRegion, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- requestSystemCompaction(HRegion, HStore, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- RequestTooBigException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Thrown when the size of the rpc request received by the server is too large.
- RequestTooBigException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.RequestTooBigException
-
- RequestTooBigException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.RequestTooBigException
-
- requirePermission(String, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- requiresLayout() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
This function is identical to the
KeyValueHeap.seek(Cell) function except
that scanner.seek(seekKey) is changed to scanner.reseek(seekKey).
- reseek(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Reseek the scanner at or after the specified KeyValue.
- reseek(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
Do a reseek to the required row.
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Reseek the scanner at or after the specified KeyValue.
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- reseekTo(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- reseekTo(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Reseek to or just before the passed cell.
- RESERVED_NAMESPACES - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- RESERVED_NAMESPACES_BYTES - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- reservoir - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- RESERVOIR_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- reset() - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.client.RequestController.Checker
-
Reset the state of the scheduler when completing the iteration of rows.
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
Reset the state of the filter between rows.
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
Filters that are purely stateless and do nothing in their reset() methods can inherit
this null/empty implementation.
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithAND
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListWithOR
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.RowFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- reset() - 类 中的方法org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
Resets the pos field of this byte array output stream to zero.
- reset() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- reset() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- reset() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- reset() - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Reset state, reinitialize with the key and iv
- reset() - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Reset state, reinitialize with the key and iv
- reset() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- reset() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- reset() - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
- reset() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Similar to
ByteBuffer.reset(), ensures that this ByteBuff
is reset back to last marked position.
- reset() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Similar to
ByteBuffer.reset(), ensures that this MBB
is reset back to last marked position.
- reset() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Resets the Matcher
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DeleteTracker
-
Called between rows.
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- reset() - 类 中的方法org.apache.hadoop.hbase.types.StructBuilder
-
Reset the sequence of accumulated fields.
- reset() - 类 中的静态方法org.apache.hadoop.hbase.util.EnvironmentEdgeManager
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- resetActive() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- resetCacheConfig(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Enable a basic on-heap cache for these jobs.
- resetCallTimeout() - 类 中的方法org.apache.hadoop.hbase.client.AsyncRpcRetryingCaller
-
- resetCounters() - 类 中的静态方法org.apache.hadoop.hbase.SplitLogCounters
-
- resetErrors() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- resetInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker
-
- resetKVHeap(List<? extends KeyValueScanner>, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- resetKVHeap(List<? extends KeyValueScanner>, CellComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- resetStats() - 类 中的方法org.apache.hadoop.hbase.regionserver.AdaptiveMemStoreCompactionStrategy
-
- resetStats() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- resetStats() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
- Resigned(ServerName) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Resigned
-
- ResizableBlockCache - org.apache.hadoop.hbase.io.hfile中的接口
-
BlockCache which is resizable.
- resizeQueues(Configuration) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Update current soft limit for executor's call queues
- resolve(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Reads the cell from the mob file, and the read point does not count.
- resolve(Cell, boolean, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HMobStore
-
Reads the cell from the mob file.
- ResourceBase - org.apache.hadoop.hbase.rest中的类
-
- ResourceBase() - 类 的构造器org.apache.hadoop.hbase.rest.ResourceBase
-
- responder - 类 中的变量org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- Response - org.apache.hadoop.hbase.rest.client中的类
-
The HTTP result code, response headers, and body of a HTTP response.
- Response(int) - 类 的构造器org.apache.hadoop.hbase.rest.client.Response
-
Constructor
- Response(int, Header[]) - 类 的构造器org.apache.hadoop.hbase.rest.client.Response
-
Constructor
- Response(int, Header[], byte[]) - 类 的构造器org.apache.hadoop.hbase.rest.client.Response
-
Constructor
- Response(int, Header[], HttpResponse, InputStream) - 类 的构造器org.apache.hadoop.hbase.rest.client.Response
-
Constructor
- RESPONSE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- RESPONSE_SIZE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- ResponseConverter - org.apache.hadoop.hbase.shaded.protobuf中的类
-
Helper utility to build protocol buffer responses,
or retrieve data from protocol buffer responses.
- REST_AUTHENTICATION_PRINCIPAL - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_AUTHENTICATION_TYPE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_CONNECTOR_ACCEPT_QUEUE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_DNS_INTERFACE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_DNS_NAMESERVER - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_KERBEROS_PRINCIPAL - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_KEYTAB_FILE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_ENABLED - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_EXCLUDE_CIPHER_SUITES - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_EXCLUDE_PROTOCOLS - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_INCLUDE_CIPHER_SUITES - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_INCLUDE_PROTOCOLS - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_KEYSTORE_KEYPASSWORD - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_KEYSTORE_PASSWORD - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_SSL_KEYSTORE_STORE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_THREAD_POOL_TASK_QUEUE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_THREAD_POOL_THREAD_IDLE_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_THREAD_POOL_THREADS_MAX - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- REST_THREAD_POOL_THREADS_MIN - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Restart from survivable exceptions by creating a new scanner.
- RESTDemoClient - org.apache.hadoop.hbase.rest中的类
-
- RESTDemoClient() - 类 的构造器org.apache.hadoop.hbase.rest.RESTDemoClient
-
- RESTORE_DIR_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- RESTORE_DIRS_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- restoreEdit(HStore, Cell, MemStoreSizing) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Used by tests
- restoreHdfsRegions() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Restore the on-disk table to a specified snapshot state.
- RestoreMetaChanges(TableDescriptor, Map<String, Pair<String, String>>) - 类 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- restoreSnapshot(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(String, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(String, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(String) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(String, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Restore the specified snapshot on the original table.
- restoreSnapshot(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- restoreSnapshot(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- restoreSnapshot(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- restoreSnapshot(String, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- restoreSnapshot(String, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- restoreSnapshot(RpcController, MasterProtos.RestoreSnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- restoreSnapshot(SnapshotProtos.SnapshotDescription, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- restoreSnapshot(RpcController, MasterProtos.RestoreSnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Execute Restore/Clone snapshot operation.
- restoreSnapshotAcl(SnapshotProtos.SnapshotDescription, TableName, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- restoreSnapshotAsync(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Restore the specified snapshot on the original table.
- restoreSnapshotAsync(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- RestoreSnapshotException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Thrown when a snapshot could not be restored due to a server-side error when restoring it.
- RestoreSnapshotException(String, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotException
-
- RestoreSnapshotException(String, Throwable, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotException
-
- RestoreSnapshotException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotException
-
- RestoreSnapshotException(String, Exception) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotException
-
- RestoreSnapshotHelper - org.apache.hadoop.hbase.snapshot中的类
-
Helper to Restore/Clone a Snapshot
The helper assumes that a table is already created, and by calling restore()
the content present in the snapshot will be restored as the new content of the table.
- RestoreSnapshotHelper(Configuration, FileSystem, SnapshotManifest, TableDescriptor, Path, ForeignExceptionDispatcher, MonitoredTask) - 类 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- RestoreSnapshotHelper(Configuration, FileSystem, SnapshotManifest, TableDescriptor, Path, ForeignExceptionDispatcher, MonitoredTask, boolean) - 类 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- RestoreSnapshotHelper.RestoreMetaChanges - org.apache.hadoop.hbase.snapshot中的类
-
Describe the set of operations needed to update hbase:meta after restore.
- restoreSnapshots(Configuration, Map<String, Path>, FileSystem) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
Restore each (snapshot name, restore directory) pair in snapshotToDir
- RESTServer - org.apache.hadoop.hbase.rest中的类
-
Main class for launching REST gateway as a servlet hosted by Jetty.
- RESTServer() - 类 的构造器org.apache.hadoop.hbase.rest.RESTServer
-
- RESTServlet - org.apache.hadoop.hbase.rest中的类
-
Singleton class encapsulating global REST servlet state and functions.
- RESTServletContainer - org.apache.hadoop.hbase.rest中的类
-
REST servlet container.
- RESTServletContainer() - 类 的构造器org.apache.hadoop.hbase.rest.RESTServletContainer
-
- resubmitTask(String, SplitLogManager.Task, SplitLogManager.ResubmitDirective) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Resubmit the task in case if found unassigned or failed
- resubmitTask(String, SplitLogManager.Task, SplitLogManager.ResubmitDirective) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- resubmitThresholdReached - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- Result - org.apache.hadoop.hbase.client中的类
-
Single row result of a
Get or
Scan query.
- Result() - 类 的构造器org.apache.hadoop.hbase.client.Result
-
Creates an empty Result w/ no KeyValue payload; returns null if you call
Result.rawCells().
- ResultBoundedCompletionService<V> - org.apache.hadoop.hbase.client中的类
-
A completion service for the RpcRetryingCallerFactory.
- ResultBoundedCompletionService(RpcRetryingCallerFactory, Executor, int) - 类 的构造器org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
- ResultGenerator - org.apache.hadoop.hbase.rest中的类
-
- ResultGenerator() - 类 的构造器org.apache.hadoop.hbase.rest.ResultGenerator
-
- ResultScanner - org.apache.hadoop.hbase.client中的接口
-
Interface for client-side scanning.
- ResultSerialization - org.apache.hadoop.hbase.mapreduce中的类
-
- ResultSerialization() - 类 的构造器org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- ResultStatsUtil - org.apache.hadoop.hbase.client中的类
-
A
Result with some statistics about the server/region status
- resume() - 接口 中的方法org.apache.hadoop.hbase.client.AdvancedScanResultConsumer.ScanResumer
-
Resume the scan.
- resumeEncoding() - 类 中的方法org.apache.hadoop.hbase.util.Base64.Base64OutputStream
-
Resumes encoding of the stream.
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- retainAssignment(Map<RegionInfo, ServerName>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Assign regions to the previously hosting region server
- retainAssignment(Map<RegionInfo, ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- rethrowException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- rethrowException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
- rethrowExceptionIfFailed() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- rethrowIfInterrupt(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.util.ExceptionUtil
-
- RetriesExhaustedException - org.apache.hadoop.hbase.client中的异常错误
-
Exception thrown by HTable methods when an attempt to do something (like
commit changes) fails after a bunch of retries.
- RetriesExhaustedException(String) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedException
-
- RetriesExhaustedException(String, IOException) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedException
-
- RetriesExhaustedException(String, int, List<Throwable>) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedException
-
Create a new RetriesExhaustedException from the list of prior failures.
- RetriesExhaustedException(int, List<RetriesExhaustedException.ThrowableWithExtraContext>) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedException
-
Create a new RetriesExhaustedException from the list of prior failures.
- RetriesExhaustedException.ThrowableWithExtraContext - org.apache.hadoop.hbase.client中的类
-
Datastructure that allows adding more info around Throwable incident.
- RetriesExhaustedWithDetailsException - org.apache.hadoop.hbase.client中的异常错误
-
This subclass of
RetriesExhaustedException
is thrown when we have more information about which rows were causing which
exceptions on what servers.
- RetriesExhaustedWithDetailsException(String) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- RetriesExhaustedWithDetailsException(String, IOException) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- RetriesExhaustedWithDetailsException(List<Throwable>, List<Row>, List<String>) - 异常错误 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException
-
- retrieveGetCounterWithStringsParams(TaskAttemptContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
In new mapreduce APIs, TaskAttemptContext has two getCounter methods
Check if getCounter(String, String) method is available.
- RETRY_BACKOFF - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Retrying we multiply hbase.client.pause setting by what we have in this array until we
run out of array items.
- RetryConfig() - 类 的构造器org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- RetryConfig(int, long, long, TimeUnit, RetryCounter.BackoffPolicy) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- RetryCounter - org.apache.hadoop.hbase.util中的类
-
Operation retry accounting.
- RetryCounter(int, long, TimeUnit) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounter
-
- RetryCounter(RetryCounter.RetryConfig) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounter
-
- RetryCounter.BackoffPolicy - org.apache.hadoop.hbase.util中的类
-
Policy for calculating sleeping intervals between retry attempts
- RetryCounter.ExponentialBackoffPolicy - org.apache.hadoop.hbase.util中的类
-
- RetryCounter.ExponentialBackoffPolicyWithLimit - org.apache.hadoop.hbase.util中的类
-
- RetryCounter.RetryConfig - org.apache.hadoop.hbase.util中的类
-
Configuration for a retry counter
- RetryCounterFactory - org.apache.hadoop.hbase.util中的类
-
- RetryCounterFactory(int, int) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounterFactory
-
- RetryCounterFactory(int, int, int) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounterFactory
-
- RetryCounterFactory(RetryCounter.RetryConfig) - 类 的构造器org.apache.hadoop.hbase.util.RetryCounterFactory
-
- RetryImmediatelyException - org.apache.hadoop.hbase中的异常错误
-
- RetryImmediatelyException(String) - 异常错误 的构造器org.apache.hadoop.hbase.RetryImmediatelyException
-
- RetryingCallable<T> - org.apache.hadoop.hbase.client中的接口
-
A Callable<T> that will be retried.
- returnBlock(BlockCacheKey, Cacheable) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Called when the scanner using the block decides to return the block once its usage
is over.
- returnBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- returnBlock(HFileBlock) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.CachingBlockReader
-
Return the given block back to the cache, if it was obtained from cache.
- returnBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- ReusablePool(int) - 类 的构造器org.apache.hadoop.hbase.util.PoolMap.ReusablePool
-
- reversed - 类 中的变量org.apache.hadoop.hbase.filter.Filter
-
- ReversedClientScanner - org.apache.hadoop.hbase.client中的类
-
A reversed client scanner which support backward scanning
- ReversedClientScanner(Configuration, Scan, TableName, ClusterConnection, RpcRetryingCallerFactory, RpcControllerFactory, ExecutorService, int) - 类 的构造器org.apache.hadoop.hbase.client.ReversedClientScanner
-
Create a new ReversibleClientScanner for the specified table Note that the passed
Scan's start row maybe changed.
- ReversedKeyValueHeap - org.apache.hadoop.hbase.regionserver中的类
-
ReversedKeyValueHeap is used for supporting reversed scanning.
- ReversedKeyValueHeap(List<? extends KeyValueScanner>, CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- ReversedMobStoreScanner - org.apache.hadoop.hbase.regionserver中的类
-
ReversedMobStoreScanner extends from ReversedStoreScanner, and is used to support
reversed scanning in both the memstore and the MOB store.
- ReversedScannerCallable - org.apache.hadoop.hbase.client中的类
-
A reversed ScannerCallable which supports backward scanning.
- ReversedScannerCallable(ClusterConnection, TableName, Scan, ScanMetrics, RpcControllerFactory) - 类 的构造器org.apache.hadoop.hbase.client.ReversedScannerCallable
-
- ReversedScannerCallable(ClusterConnection, TableName, Scan, ScanMetrics, RpcControllerFactory, int) - 类 的构造器org.apache.hadoop.hbase.client.ReversedScannerCallable
-
- ReversedStoreScanner - org.apache.hadoop.hbase.regionserver中的类
-
ReversedStoreScanner extends from StoreScanner, and is used to support
reversed scanning.
- ReversedStoreScanner(HStore, ScanInfo, Scan, NavigableSet<byte[]>, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
Opens a scanner across memstore, snapshot, and all StoreFiles.
- ReversedStoreScanner(Scan, ScanInfo, NavigableSet<byte[]>, List<? extends KeyValueScanner>) - 类 的构造器org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
Constructor for testing.
- revision - 类 中的静态变量org.apache.hadoop.hbase.Version
-
- rewind() - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
Set position to beginning of given block
- rewind() - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- rewind() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Rewinds this ByteBuff and the position is set to 0
- rewind() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Rewinds this MBB and the position is set to 0
- rewind() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- rewindThenToList(ByteBuffer, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- RIT_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_COUNT_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_COUNT_OVER_THRESHOLD_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_COUNT_OVER_THRESHOLD_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_DURATION_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_DURATION_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_OLDEST_AGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- RIT_OLDEST_AGE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- rLength - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- RMI_CONNECTOR_PORT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- RMI_REGISTRY_PORT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- RNG_ALGORITHM_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.Cipher
-
- RNG_PROVIDER_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.crypto.Cipher
-
- rOffset - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- ROLL_REQUESTED - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- ROLL_REQUESTED_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- rollbackRegionReplayEditsSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Roll back the global MemStore size for a specified region when this region
can't be opened.
- rollHLogWriter(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- RollingStatCalculator - org.apache.hadoop.hbase.util中的类
-
This class maintains mean and variation for any sequence of input provided to it.
- RollingStatCalculator(int) - 类 的构造器org.apache.hadoop.hbase.util.RollingStatCalculator
-
Creates a RollingStatCalculator with given number of rolling periods.
- rollMetricsPeriod() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- rollMetricsPeriod() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- rollWALWriter(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Roll the log writer.
- rollWALWriter(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Roll the log writer.
- rollWALWriter(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- rollWALWriter(RpcController, AdminProtos.RollWALWriterRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Roll the WAL writer of the region server.
- rollWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- rollWriter(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- rollWriter() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Roll the log writer.
- rollWriter(boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Roll the log writer.
- rollWriterLock - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
This lock makes sure only one log roll runs at a time.
- RootResource - org.apache.hadoop.hbase.rest中的类
-
- RootResource() - 类 的构造器org.apache.hadoop.hbase.rest.RootResource
-
Constructor
- roundRobinAssignment(List<RegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- roundRobinAssignment(List<RegionInfo>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Perform a Round Robin assignment of regions.
- roundRobinAssignment(List<RegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- row - 类 中的变量org.apache.hadoop.hbase.client.Mutation
-
- row - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- Row - org.apache.hadoop.hbase.client中的接口
-
Has a row.
- row - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- ROW_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- ROW_KEY_OFFSET - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- ROW_KEYS_PARAM_NAME - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- ROW_LENGTH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
Size of the row length field in bytes
- ROW_OFFSET - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- RowAccess<T> - org.apache.hadoop.hbase.client中的接口
-
Provide a way to access the inner buffer.
- RowBloomContext - org.apache.hadoop.hbase.util中的类
-
Handles ROW bloom related context.
- RowBloomContext(BloomFilterWriter, CellComparator) - 类 的构造器org.apache.hadoop.hbase.util.RowBloomContext
-
- RowBloomHashKey - org.apache.hadoop.hbase.util中的类
-
- RowBloomHashKey(Cell) - 类 的构造器org.apache.hadoop.hbase.util.RowBloomHashKey
-
- RowColBloomContext - org.apache.hadoop.hbase.util中的类
-
Handles ROWCOL bloom related context.
- RowColBloomContext(BloomFilterWriter, CellComparator) - 类 的构造器org.apache.hadoop.hbase.util.RowColBloomContext
-
- RowColBloomHashKey - org.apache.hadoop.hbase.util中的类
-
An hash key for ROWCOL bloom.
- RowColBloomHashKey(Cell) - 类 的构造器org.apache.hadoop.hbase.util.RowColBloomHashKey
-
- rowComparator - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Row comparator for the region this query is for
- RowCounter - org.apache.hadoop.hbase.mapred中的类
-
A job with a map to count rows.
- RowCounter() - 类 的构造器org.apache.hadoop.hbase.mapred.RowCounter
-
- RowCounter - org.apache.hadoop.hbase.mapreduce中的类
-
A job with a just a map phase to count rows.
- RowCounter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.RowCounter
-
- RowEndKeyComparator() - 类 的构造器org.apache.hadoop.hbase.util.Bytes.RowEndKeyComparator
-
- RowFilter - org.apache.hadoop.hbase.filter中的类
-
This filter is used to filter based on the key.
- RowFilter(CompareFilter.CompareOp, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.RowFilter
-
- RowFilter(CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.RowFilter
-
Constructor.
- RowIndexCodecV1 - org.apache.hadoop.hbase.io.encoding中的类
-
Store cells following every row's start offset, so we can binary search to a row's cells.
- RowIndexCodecV1() - 类 的构造器org.apache.hadoop.hbase.io.encoding.RowIndexCodecV1
-
- RowIndexEncoderV1 - org.apache.hadoop.hbase.io.encoding中的类
-
- RowIndexEncoderV1(DataOutputStream, HFileBlockDefaultEncodingContext) - 类 的构造器org.apache.hadoop.hbase.io.encoding.RowIndexEncoderV1
-
- RowIndexSeekerV1 - org.apache.hadoop.hbase.io.encoding中的类
-
- RowIndexSeekerV1(CellComparator, HFileBlockDecodingContext) - 类 的构造器org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- rowIsInRange(RegionInfo, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Determines if the specified row is within the row range specified by the
specified RegionInfo
- rowIsInRange(RegionInfo, byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- ROWKEY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- RowLockImpl(HRegion.RowLockContext, Lock) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- RowMutations - org.apache.hadoop.hbase.client中的类
-
Performs multiple mutations atomically on a single row.
- RowMutations(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.RowMutations
-
- RowMutations(byte[], int) - 类 的构造器org.apache.hadoop.hbase.client.RowMutations
-
Create an atomic mutation for the specified row.
- RowProcessor<S extends com.google.protobuf.Message,T extends com.google.protobuf.Message> - org.apache.hadoop.hbase.regionserver中的接口
-
- RowRange() - 类 的构造器org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- RowRange(String, boolean, String, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
If the startRow is empty or null, set it to HConstants.EMPTY_BYTE_ARRAY, means begin at the
start row of the table.
- RowRange(byte[], boolean, byte[], boolean) - 类 的构造器org.apache.hadoop.hbase.filter.MultiRowRangeFilter.RowRange
-
- RowResource - org.apache.hadoop.hbase.rest中的类
-
- RowResource(TableResource, String, String, String, String) - 类 的构造器org.apache.hadoop.hbase.rest.RowResource
-
Constructor
- RowResultGenerator - org.apache.hadoop.hbase.rest中的类
-
- RowResultGenerator(String, RowSpec, Filter, boolean) - 类 的构造器org.apache.hadoop.hbase.rest.RowResultGenerator
-
- RowSpec - org.apache.hadoop.hbase.rest中的类
-
Parses a path based row/column/timestamp specification into its component
elements.
- RowSpec(String) - 类 的构造器org.apache.hadoop.hbase.rest.RowSpec
-
- RowSpec(byte[], byte[], byte[][], long, long, int) - 类 的构造器org.apache.hadoop.hbase.rest.RowSpec
-
- RowSpec(byte[], byte[], Collection<byte[]>, long, long, int, Collection<String>) - 类 的构造器org.apache.hadoop.hbase.rest.RowSpec
-
- RowSpec(byte[], byte[], Collection<byte[]>, long, long, int) - 类 的构造器org.apache.hadoop.hbase.rest.RowSpec
-
- RowTooBigException - org.apache.hadoop.hbase.client中的异常错误
-
Gets or Scans throw this exception if running without in-row scan flag
set and row size appears to exceed max configured size (configurable via
hbase.table.max.rowsize).
- RowTooBigException(String) - 异常错误 的构造器org.apache.hadoop.hbase.client.RowTooBigException
-
- RowTooBigException - org.apache.hadoop.hbase.regionserver中的异常错误
-
- RowTooBigException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RowTooBigException
-
已过时。
- rowToStr(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- rowToStr(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- rowToStr(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- RPAREN - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for RPAREN
- RPC_CODEC_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Configuration key for setting RPC codec class name
- RPC_CURRENT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- RPC_GET_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_GET_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_HEADER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The first four bytes of Hadoop RPC connections
- RPC_MULTI_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_MULTI_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_MUTATE_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_MUTATE_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_SCAN_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RPC_SCAN_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- rpcCall() - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
Run the RPC call.
- rpcCall() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
- RpcCall - org.apache.hadoop.hbase.ipc中的接口
-
Interface of all necessary to carry out a RPC method invocation on the server.
- RpcCallback - org.apache.hadoop.hbase.ipc中的接口
-
Denotes a callback action that has to be executed at the end of an Rpc Call.
- RpcCallContext - org.apache.hadoop.hbase.ipc中的接口
-
Interface of all necessary to carry out a RPC service invocation on the server.
- RpcChannelImplementation(AbstractRpcClient<?>, InetSocketAddress, User, int) - 类 的构造器org.apache.hadoop.hbase.ipc.AbstractRpcClient.RpcChannelImplementation
-
- RpcClient - org.apache.hadoop.hbase.ipc中的接口
-
Interface for RpcClient implementations so ConnectionManager can handle it.
- RpcClientFactory - org.apache.hadoop.hbase.ipc中的类
-
- rpcController - 类 中的变量org.apache.hadoop.hbase.client.RegionServerCallable
-
This is 99% of the time a HBaseRpcController but also used doing Coprocessor Endpoints and in
this case, it is a ServerRpcControllable which is not a HBaseRpcController.
- rpcControllerFactory - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- rpcControllerFactory - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- rpcControllerFactory - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- RpcControllerFactory - org.apache.hadoop.hbase.ipc中的类
-
- RpcControllerFactory(Configuration) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcControllerFactory
-
- RpcExecutor - org.apache.hadoop.hbase.ipc中的类
-
- RpcExecutor(String, int, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
- RpcExecutor(String, int, String, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
- RpcExecutor.Handler - org.apache.hadoop.hbase.ipc中的类
-
- RpcExecutor.QueueBalancer - org.apache.hadoop.hbase.ipc中的类
-
- rpcHistograms - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- RpcRetryingCaller<T> - org.apache.hadoop.hbase.client中的接口
-
- RpcRetryingCallerFactory - org.apache.hadoop.hbase.client中的类
-
- RpcRetryingCallerFactory(Configuration) - 类 的构造器org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- RpcRetryingCallerFactory(Configuration, RetryingCallerInterceptor) - 类 的构造器org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
- RpcRetryingCallerImpl<T> - org.apache.hadoop.hbase.client中的类
-
- RpcRetryingCallerImpl(long, long, int, int) - 类 的构造器org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- RpcRetryingCallerImpl(long, long, int, RetryingCallerInterceptor, int, int) - 类 的构造器org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- RpcRetryingCallerWithReadReplicas - org.apache.hadoop.hbase.client中的类
-
Caller that goes to replica if the primary region does no answer within a configurable
timeout.
- RpcRetryingCallerWithReadReplicas(RpcControllerFactory, TableName, ClusterConnection, Get, ExecutorService, int, int, int, int) - 类 的构造器org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- RpcScheduler - org.apache.hadoop.hbase.ipc中的类
-
An interface for RPC request scheduling algorithm.
- RpcScheduler() - 类 的构造器org.apache.hadoop.hbase.ipc.RpcScheduler
-
- RpcScheduler.Context - org.apache.hadoop.hbase.ipc中的类
-
Exposes runtime information of a RpcServer that a RpcScheduler may need.
- RpcSchedulerFactory - org.apache.hadoop.hbase.regionserver中的接口
-
- RpcServer - org.apache.hadoop.hbase.ipc中的类
-
An RPC server that hosts protobuf described Services.
- RpcServer(Server, String, List<RpcServer.BlockingServiceAndInterface>, InetSocketAddress, Configuration, RpcScheduler, boolean) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcServer
-
Constructs a server listening on the named port and address.
- RpcServer.BlockingServiceAndInterface - org.apache.hadoop.hbase.ipc中的类
-
Datastructure for passing a BlockingService and its associated class of
protobuf service interface.
- RpcServer.CallCleanup - org.apache.hadoop.hbase.ipc中的接口
-
- RpcServerFactory - org.apache.hadoop.hbase.ipc中的类
-
- RpcServerInterface - org.apache.hadoop.hbase.ipc中的接口
-
- rpcServices - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- RpcThrottlingException - org.apache.hadoop.hbase.quotas中的异常错误
-
Describe the throttling result.
- RpcThrottlingException(String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- RpcThrottlingException(RpcThrottlingException.Type, long, String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- RpcThrottlingException.Type - org.apache.hadoop.hbase.quotas中的枚举
-
- rpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
- rpcTimers - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- RS_ENABLE_TABLE_METRICS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- RS_ENABLE_TABLE_METRICS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- RS_START_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RS_START_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- RSDumpServlet - org.apache.hadoop.hbase.regionserver中的类
-
- RSDumpServlet() - 类 的构造器org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- RSGROUP_TABLE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- RSGroupableBalancer - org.apache.hadoop.hbase.rsgroup中的接口
-
Marker Interface.
- RSGroupAdmin - org.apache.hadoop.hbase.rsgroup中的接口
-
Group user API interface used between client and server.
- RSGroupAdminEndpoint - org.apache.hadoop.hbase.rsgroup中的类
-
- RSGroupAdminEndpoint() - 类 的构造器org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- RSGroupAdminServer - org.apache.hadoop.hbase.rsgroup中的类
-
Service to support Region Server Grouping (HBase-6721).
- RSGroupAdminServer(MasterServices, RSGroupInfoManager) - 类 的构造器org.apache.hadoop.hbase.rsgroup.RSGroupAdminServer
-
- RSGroupBasedLoadBalancer - org.apache.hadoop.hbase.rsgroup中的类
-
GroupBasedLoadBalancer, used when Region Server Grouping is configured (HBase-6721)
It does region balance based on a table's group membership.
- RSGroupBasedLoadBalancer() - 类 的构造器org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
Used by reflection in LoadBalancerFactory.
- RSGroupInfo - org.apache.hadoop.hbase.rsgroup中的类
-
Stores the group information of region server groups.
- RSGroupInfo(String) - 类 的构造器org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- RSGroupInfo(RSGroupInfo) - 类 的构造器org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- RSGroupInfoManager - org.apache.hadoop.hbase.rsgroup中的接口
-
Interface used to manage RSGroupInfo storage.
- RSGroupTableAccessor - org.apache.hadoop.hbase中的类
-
Read rs group information from hbase:rsgroup.
- rsGroupZNode - 接口 中的静态变量org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- RSRpcServices - org.apache.hadoop.hbase.regionserver中的类
-
Implements the regionserver RPC services.
- RSRpcServices(HRegionServer) - 类 的构造器org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- RSStatusServlet - org.apache.hadoop.hbase.regionserver中的类
-
- RSStatusServlet() - 类 的构造器org.apache.hadoop.hbase.regionserver.RSStatusServlet
-
- rsZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- run() - 类 中的方法org.apache.hadoop.hbase.client.DelayingRunner
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.client.example.AsyncClientExample
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.client.example.BufferedMutatorExample
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.client.example.MultiThreadedClientExample
-
- run() - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock.LockHeartbeatWorker
-
- run(Configuration, TableName, Scan, Path) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.Export
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
Runs the command-line pretty-printer, and returns the desired command
exit code (zero for success, non-zero for failure).
- run(R) - 类 中的方法org.apache.hadoop.hbase.ipc.BlockingRpcCallback
-
Called on completion of the RPC call with the response object, or null in the case of
an error.
- run() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- run(R) - 类 中的方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils.BlockingRpcCallback
-
Called on completion of the RPC call with the response object, or null in the case of
an error.
- run(boolean) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController.CancellationCallback
-
- run() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallback
-
- run() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.Handler
-
- run() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServer.CallCleanup
-
- run() - 类 中的方法org.apache.hadoop.hbase.JitterScheduledThreadPoolExecutorImpl.JitteredRunnableScheduledFuture
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapred.RowCounter
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCounter
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Export
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IndexBuilder
-
- run(String, Map<byte[], List<Path>>, TableName) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
已过时。
- run(Mapper<ImmutableBytesWritable, Result, K2, V2>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Run the application's maps using a thread pool.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.RowCounter
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SampleUploader
-
Main entry point.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- run() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- run() - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine.LocalHMaster
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mob.ExpiredMobFileCleaner
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionTool
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
The HRegionServer sticks in this loop until closed.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- run() - 类 中的方法org.apache.hadoop.hbase.rest.RESTDemoClient
-
- run() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- run() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- run(String[]) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
Pass one or more log file names and formatting options and it will dump out
a text version of the contents on stdout.
- run() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.WriterThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKAclReset
-
- RUN_SHUTDOWN_HOOK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Key for boolean configuration whose default is true.
- runAs(PrivilegedAction<T>) - 类 中的方法org.apache.hadoop.hbase.security.User
-
Executes the given action within the context of this user.
- runAs(PrivilegedExceptionAction<T>) - 类 中的方法org.apache.hadoop.hbase.security.User
-
Executes the given action within the context of this user.
- runAs(PrivilegedAction<T>) - 类 中的方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- runAs(PrivilegedExceptionAction<T>) - 类 中的方法org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- runAsLoginUser(PrivilegedExceptionAction<T>) - 类 中的静态方法org.apache.hadoop.hbase.security.User
-
Executes the given action as the login user
- runCatalogJanitor() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Ask for a scan of the catalog table.
- runCatalogJanitor() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Ask for a scan of the catalog table.
- runCatalogJanitor() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- runCatalogScan() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- runCatalogScan(RpcController, MasterProtos.RunCatalogScanRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- runCatalogScan(RpcController, MasterProtos.RunCatalogScanRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- runCleanerChore() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Ask for cleaner chore to run.
- runCleanerChore() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Ask for cleaner chore to run.
- runCleanerChore() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- runCleanerChore(RpcController, MasterProtos.RunCleanerChoreRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- runCleanerChore(RpcController, MasterProtos.RunCleanerChoreRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- runnerStats - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- RunnerStats(MetricRegistry) - 类 的构造器org.apache.hadoop.hbase.client.MetricsConnection.RunnerStats
-
- running - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- RWQueueRpcExecutor - org.apache.hadoop.hbase.ipc中的类
-
RPC Executor that uses different queues for reads and writes.
- RWQueueRpcExecutor(String, int, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- S - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for 'S'
- safeGetHeapMemoryUsage() - 类 中的静态方法org.apache.hadoop.hbase.io.util.MemorySizeUtil
-
Return JVM memory statistics while properly handling runtime exceptions from the JVM.
- SampleUploader - org.apache.hadoop.hbase.mapreduce中的类
-
Sample Uploader MapReduce
This is EXAMPLE code.
- SampleUploader() - 类 的构造器org.apache.hadoop.hbase.mapreduce.SampleUploader
-
- sanityCheckLeft(byte[], Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
Subclasses can call this method to make sure the first KV is within multi-writer range.
- sanityCheckRight(byte[], Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
Subclasses can call this method to make sure the last KV is within multi-writer range.
- SASL_DEFAULT_REALM - 类 中的静态变量org.apache.hadoop.hbase.security.SaslUtil
-
- SaslChallengeDecoder - org.apache.hadoop.hbase.security中的类
-
Decode the sasl challenge sent by RpcServer.
- SaslChallengeDecoder() - 类 的构造器org.apache.hadoop.hbase.security.SaslChallengeDecoder
-
- saslClient - 类 中的变量org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- saslConnect(InputStream, OutputStream) - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcClient
-
Do client side SASL authentication with server via the given InputStream and OutputStream
- saslProps - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- saslProps - 类 中的变量org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient
-
- SaslStatus - org.apache.hadoop.hbase.security中的枚举
-
- SaslUnwrapHandler - org.apache.hadoop.hbase.security中的类
-
Unwrap sasl messages.
- SaslUnwrapHandler(SaslClient) - 类 的构造器org.apache.hadoop.hbase.security.SaslUnwrapHandler
-
- SaslUtil - org.apache.hadoop.hbase.security中的类
-
- SaslUtil() - 类 的构造器org.apache.hadoop.hbase.security.SaslUtil
-
- SaslUtil.QualityOfProtection - org.apache.hadoop.hbase.security中的枚举
-
- SaslWrapHandler - org.apache.hadoop.hbase.security中的类
-
wrap sasl messages.
- SaslWrapHandler(SaslClient) - 类 的构造器org.apache.hadoop.hbase.security.SaslWrapHandler
-
- saveMetadata(HFile.Writer) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
Save metadata in HFile which will be written to disk
- saveMetadata(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- saveMetadata(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- scan(Scan, C) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
The scan API uses the observer pattern.
- scan - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- Scan - org.apache.hadoop.hbase.client中的类
-
Used to perform Scan operations.
- Scan() - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
Create a Scan operation across all rows.
- Scan(byte[], Filter) - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
- Scan(byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
- Scan(byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
- Scan(Scan) - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
Creates a new instance of this class while copying all values.
- Scan(Get) - 类 的构造器org.apache.hadoop.hbase.client.Scan
-
Builds a scan object with the same specs as get.
- scan - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- SCAN - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Base-64 encoded scanner.
- scan(RpcController, ClientProtos.ScanRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Scan data in a table.
- Scan.ReadType - org.apache.hadoop.hbase.client中的枚举
-
- SCAN_ATTRIBUTES_METRICS_DATA - 类 中的静态变量org.apache.hadoop.hbase.client.Scan
-
已过时。
- SCAN_ATTRIBUTES_METRICS_ENABLE - 类 中的静态变量org.apache.hadoop.hbase.client.Scan
-
- SCAN_ATTRIBUTES_TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.client.Scan
-
- SCAN_BATCH_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_BATCHSIZE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Set the maximum number of values to return for each call to next().
- SCAN_CACHE_BLOCKS - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_CACHEBLOCKS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Set to false to disable server-side caching of blocks for this scan.
- SCAN_CACHEDROWS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The number of rows for caching that will be passed to scanners.
- SCAN_COLUMN - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_COLUMN_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Column Family to Scan
- SCAN_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Space delimited list of columns and column families to scan.
- SCAN_END_ROW - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_END_TIME - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_FETCH_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_FILTER - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SCAN_LIMIT - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_MAX_VERSIONS - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_MAXVERSIONS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The maximum number of version to return.
- SCAN_QUEUE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- SCAN_QUEUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- SCAN_REVERSED - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_ROW_START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Scan start row
- SCAN_ROW_STOP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Scan stop row
- SCAN_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- SCAN_SIZE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SCAN_START_ROW - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_START_TIME - 接口 中的静态变量org.apache.hadoop.hbase.rest.Constants
-
- SCAN_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableLatencies
-
- SCAN_TIME_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SCAN_TIMERANGE_END - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The ending timestamp used to filter columns with a specific range of versions.
- SCAN_TIMERANGE_START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The starting timestamp used to filter columns with a specific range of versions.
- SCAN_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The timestamp used to filter columns with a specific timestamp.
- SCAN_VTIME_WEIGHT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Used to control the scan delay, currently sqrt(numNextCall * weight)
- scanAll(Scan) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable
-
Return all the results that match the given scan object.
- ScanDeleteTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
This class is responsible for the tracking and enforcement of Deletes during the course of a Scan
operation.
- ScanDeleteTracker(CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- ScanInfo - org.apache.hadoop.hbase.regionserver中的类
-
Immutable information for scans over a store.
- ScanInfo(Configuration, ColumnFamilyDescriptor, long, long, CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScanInfo
-
- ScanInfo(Configuration, byte[], int, int, long, KeepDeletedCells, long, long, CellComparator, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScanInfo
-
- scanMeta(Connection, TableName, MetaTableAccessor.QueryType, int, MetaTableAccessor.Visitor) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- scanMeta(Connection, byte[], byte[], MetaTableAccessor.QueryType, MetaTableAccessor.Visitor) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- scanMeta(Connection, MetaTableAccessor.Visitor, TableName, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Performs a scan of META table for given table starting from
given row.
- scanMeta(Connection, byte[], byte[], MetaTableAccessor.QueryType, int, MetaTableAccessor.Visitor) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Performs a scan of META table.
- scanMetaForTableRegions(Connection, MetaTableAccessor.Visitor, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
- scanMetrics - 类 中的变量org.apache.hadoop.hbase.client.AbstractClientScanner
-
- scanMetrics - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- scanMetricsPublished - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- ScannerCallable - org.apache.hadoop.hbase.client中的类
-
Scanner operations such as create, next, etc.
- ScannerCallable(ClusterConnection, TableName, Scan, ScanMetrics, RpcControllerFactory) - 类 的构造器org.apache.hadoop.hbase.client.ScannerCallable
-
- ScannerCallable(ClusterConnection, TableName, Scan, ScanMetrics, RpcControllerFactory, int) - 类 的构造器org.apache.hadoop.hbase.client.ScannerCallable
-
- scannerContext - 类 中的变量org.apache.hadoop.hbase.regionserver.MemStoreSegmentsIterator
-
- ScannerContext - org.apache.hadoop.hbase.regionserver中的类
-
- ScannerContext.Builder - org.apache.hadoop.hbase.regionserver中的类
-
- ScannerContext.LimitScope - org.apache.hadoop.hbase.regionserver中的枚举
-
The various scopes where a limit can be enforced.
- ScannerContext.NextState - org.apache.hadoop.hbase.regionserver中的枚举
-
- scannerId - 类 中的变量org.apache.hadoop.hbase.client.ScannerCallable
-
- ScannerIdGenerator - org.apache.hadoop.hbase.regionserver中的类
-
Generate a new style scanner id to prevent collision with previous started server or other RSs.
- ScannerIdGenerator(ServerName) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScannerIdGenerator
-
- ScannerInstanceResource - org.apache.hadoop.hbase.rest中的类
-
- ScannerInstanceResource() - 类 的构造器org.apache.hadoop.hbase.rest.ScannerInstanceResource
-
- ScannerInstanceResource(String, String, ResultGenerator, int) - 类 的构造器org.apache.hadoop.hbase.rest.ScannerInstanceResource
-
- ScannerResetException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Thrown when the server side has received an Exception, and asks the Client to reset the scanner
state by closing the current region scanner, and reopening from the start of last seen row.
- ScannerResetException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.ScannerResetException
-
constructor
- ScannerResetException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.ScannerResetException
-
Constructor
- ScannerResetException(String, Exception) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.ScannerResetException
-
- ScannerResource - org.apache.hadoop.hbase.rest中的类
-
- ScannerResource(TableResource) - 类 的构造器org.apache.hadoop.hbase.rest.ScannerResource
-
Constructor
- ScannerResultGenerator - org.apache.hadoop.hbase.rest中的类
-
- ScannerResultGenerator(String, RowSpec, Filter, boolean) - 类 的构造器org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- ScannerResultGenerator(String, RowSpec, Filter, int, boolean) - 类 的构造器org.apache.hadoop.hbase.rest.ScannerResultGenerator
-
- scannersForDelayedClose - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- scannerTimeout - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- ScanOptions - org.apache.hadoop.hbase.regionserver中的接口
-
This class gives you the ability to change the max versions and TTL options before opening a
scanner for a Store.
- ScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
A query matcher that is specifically designed for the scan case.
- ScanQueryMatcher(Cell, ScanInfo, ColumnTracker, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- ScanQueryMatcher.MatchCode - org.apache.hadoop.hbase.regionserver.querymatcher中的枚举
-
- ScanResultConsumer - org.apache.hadoop.hbase.client中的接口
-
Receives
Result for an asynchronous scan.
- ScanResultConsumerBase - org.apache.hadoop.hbase.client中的接口
-
The base interface for scan result consumer.
- SCANS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Job parameter that specifies the scan list.
- scanTracker - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- ScanType - org.apache.hadoop.hbase.regionserver中的枚举
-
Enum to distinguish general scan types.
- ScanWildcardColumnTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Keeps track of the columns for a scan if they are not explicitly specified
- ScanWildcardColumnTracker(int, int, long, CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Return maxVersions of every row.
- scheduleChore(ScheduledChore) - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- ScheduledChore - org.apache.hadoop.hbase中的类
-
ScheduledChore is a task performed on a period in hbase.
- ScheduledChore() - 类 的构造器org.apache.hadoop.hbase.ScheduledChore
-
This constructor is for test only.
- ScheduledChore(String, Stoppable, int) - 类 的构造器org.apache.hadoop.hbase.ScheduledChore
-
- ScheduledChore(String, Stoppable, int, long) - 类 的构造器org.apache.hadoop.hbase.ScheduledChore
-
- ScheduledChore(String, Stoppable, int, long, TimeUnit) - 类 的构造器org.apache.hadoop.hbase.ScheduledChore
-
- scheduler - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- SchemaResource - org.apache.hadoop.hbase.rest中的类
-
- SchemaResource(TableResource) - 类 的构造器org.apache.hadoop.hbase.rest.SchemaResource
-
Constructor
- ScopeWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Keeps KVs that are scoped other than local
- ScopeWALEntryFilter() - 类 的构造器org.apache.hadoop.hbase.replication.ScopeWALEntryFilter
-
- searchDelimiterIndex(byte[], int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- searchDelimiterIndexInReverse(byte[], int, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Find index of passed delimiter walking from end of buffer backwards.
- searchJson(JsonNode, String) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONMetricUtil
-
- second - 类 中的变量org.apache.hadoop.hbase.util.Pair
-
- secretManager - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- SecureAsyncProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SecureAsyncProtobufLogWriter(EventLoopGroup, Class<? extends Channel>) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureAsyncProtobufLogWriter
-
- SecureBulkLoadClient - org.apache.hadoop.hbase.client中的类
-
Client proxy for SecureBulkLoadProtocol
- SecureBulkLoadClient(Configuration, Table) - 类 的构造器org.apache.hadoop.hbase.client.SecureBulkLoadClient
-
- secureBulkLoadHFiles(ClientProtos.ClientService.BlockingInterface, List<Pair<byte[], String>>, byte[], boolean, Token<?>, String) - 类 中的方法org.apache.hadoop.hbase.client.SecureBulkLoadClient
-
Securely bulk load a list of HFiles using client protocol.
- secureBulkLoadHFiles(ClientProtos.ClientService.BlockingInterface, List<Pair<byte[], String>>, byte[], boolean, Token<?>, String, boolean) - 类 中的方法org.apache.hadoop.hbase.client.SecureBulkLoadClient
-
Securely bulk load a list of HFiles using client protocol.
- secureBulkLoadHFiles(HRegion, ClientProtos.BulkLoadHFileRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.SecureBulkLoadManager
-
- secureBulkLoadManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- SecureBulkLoadManager - org.apache.hadoop.hbase.regionserver中的类
-
Bulk loads in secure mode.
- SecureHadoopUser() - 类 的构造器org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- SecureHadoopUser(UserGroupInformation) - 类 的构造器org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- SecureHadoopUser(UserGroupInformation, LoadingCache<String, String[]>) - 类 的构造器org.apache.hadoop.hbase.security.User.SecureHadoopUser
-
- secureInitAfterHeader(boolean, Encryptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- SecureProtobufLogReader - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SecureProtobufLogReader() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- SecureProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SecureProtobufLogWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- SecureWALCellCodec - org.apache.hadoop.hbase.regionserver.wal中的类
-
A WALCellCodec that encrypts the WALedits.
- SecureWALCellCodec(Configuration, CompressionContext) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecureWALCellCodec(Configuration, Encryptor) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecureWALCellCodec(Configuration, Decryptor) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecurityCapability - org.apache.hadoop.hbase.client.security中的枚举
-
Available security capabilities
- SecurityInfo - org.apache.hadoop.hbase.security中的类
-
Maps RPC protocol interfaces to required configuration
- SecurityInfo(String, AuthenticationProtos.TokenIdentifier.Kind) - 类 的构造器org.apache.hadoop.hbase.security.SecurityInfo
-
- SecurityUtil - org.apache.hadoop.hbase.security中的类
-
Security related generic utility methods.
- SecurityUtil() - 类 的构造器org.apache.hadoop.hbase.security.SecurityUtil
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
Seeks all scanners at or below the specified seek key.
- seek(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at or after the specified KeyValue.
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Seek the scanner at or after the specified Cell.
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- seek(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- seek(long) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- seekAsDirection(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
Do a backwardSeek in a reversed StoreScanner(scan backward)
- seekAsDirection(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Do a reseek in a normal StoreScanner(scan forward)
- seekAtOrAfter(HFileScanner, Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seekBefore(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- seekBefore(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Consider the cell stream of all the cells in the file,
c[0] .. c[n], where there are n cells in the file.
- seekFirst(TNode) - 类 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
Reset the iterator, and seeks to the first (min) node of the tree
- seekOnFs(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- seekOnFs(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Performs a filesystem-level seek to a certain position in an underlying file.
- seekScanners(List<? extends KeyValueScanner>, Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- seekScanners(List<? extends KeyValueScanner>, Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Seek the specified scanners with the given key
- seekTo(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- seekTo(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
An internal API function.
- seekTo() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
Positions this scanner at the start of the file.
- seekTo(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
SeekTo or just before the passed cell.
- seekTo() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Positions this scanner at the start of the file.
- seekTo(TNode, Object, AvlUtil.AvlKeyComparator<TNode>) - 类 中的方法org.apache.hadoop.hbase.util.AvlUtil.AvlTreeIterator
-
Reset the iterator, and seeks to the specified key
- seekToKeyInBlock(Cell, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
Moves the seeker position within the current block to:
the last key that that is less than or equal to the given key if
seekBefore is false
the last key that is strictly less than the given key if
seekBefore is true.
- seekToKeyInBlock(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- seekToLastRow() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at the first KeyValue of last row
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonReversedNonLazyKeyValueScanner
-
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Seek the scanner at the first KeyValue of last row
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seekToNextRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- seekToNextRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- seekToPreviousRow(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at the first Cell of the row which is the previous row
of specified key
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonReversedNonLazyKeyValueScanner
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedStoreScanner
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Seek the scanner at the first Cell of the row which is the previous row
of specified key
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seePastDeleteMarkers - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
whether time range queries can see rows "behind" a delete
- Segment - org.apache.hadoop.hbase.regionserver中的类
-
This is an abstraction of a segment maintained in a memstore, e.g., the active
cell set or its snapshot.
- Segment(CellComparator, TimeRangeTracker) - 类 的构造器org.apache.hadoop.hbase.regionserver.Segment
-
- Segment(CellComparator, List<ImmutableSegment>, TimeRangeTracker) - 类 的构造器org.apache.hadoop.hbase.regionserver.Segment
-
- Segment(CellSet, CellComparator, MemStoreLAB, TimeRangeTracker) - 类 的构造器org.apache.hadoop.hbase.regionserver.Segment
-
- Segment(Segment) - 类 的构造器org.apache.hadoop.hbase.regionserver.Segment
-
- segment - 类 中的变量org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- SegmentFactory - org.apache.hadoop.hbase.regionserver中的类
-
A singleton store segment factory.
- SegmentScanner - org.apache.hadoop.hbase.regionserver中的类
-
A scanner of a single memstore segment.
- SegmentScanner(Segment, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Scanners are ordered from 0 (oldest) to newest in increasing order.
- select(List<FileStatus>, boolean) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactor
-
Selects the compacted mob/del files.
- selectionTime - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
- selectScannersFrom(HStore, List<? extends KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Filters the given list of scanners using Bloom filter, time range, and TTL.
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushAllLargeStoresPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushAllStoresPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushNonSloppyStoresFirstPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushPolicy
-
- sendRegionWarmup(ServerName, RegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends a WARMUP RPC to the specified server to warmup the specified region.
- sendResponseIfReady() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Send the response of this RPC call.
- sendShutdownInterrupt() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Called on stop/abort before closing the cluster connection and meta locator.
- SENT_BYTES_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- SENT_BYTES_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- sentBytes(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- sentBytes(long) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- sentResponse(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- sentResponse(long) - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerSourceImpl
-
- SEPARATE_OLDLOGDIR - 类 中的静态变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
Separate old log into different dir by regionserver name
- separator() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- separator() - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- separator() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- SEPARATOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- seqId - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- SEQNUM_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The open seqnum column qualifier
- SEQNUM_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The open seqnum column qualifier
- SequenceId - org.apache.hadoop.hbase.regionserver中的接口
-
Interface which abstracts implementations on log sequenceId assignment
- sequenceID - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- sequenceIdAccounting - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
Class that does accounting of sequenceids in WAL subsystem.
- sequenceIdChecker - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- serialize(String, Throwable) - 异常错误 中的静态方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
Converts a ForeignException to an array of bytes.
- serialize(ByteBuffer, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Serializes its data into destination.
- serialize(ByteBuffer, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- serialize(Cell) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellSerialization.CellSerializer
-
- serialize(KeyValue) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueSerializer
-
已过时。
- server - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- Server - org.apache.hadoop.hbase中的接口
-
Defines a curated set of shared functions implemented by HBase servers (Masters
and RegionServers).
- SERVER_CRASH_METRIC_PREFIX - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- SERVER_NAME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- SERVER_NAME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SERVER_NAME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- SERVER_NAME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SERVER_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The server column qualifier
- SERVER_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The server column qualifier
- serverAdded(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.ServerListener
-
The server has joined the cluster.
- serverChannelClass() - 类 中的方法org.apache.hadoop.hbase.util.NettyEventLoopGroupConfig
-
- ServerCommandLine - org.apache.hadoop.hbase.util中的类
-
Base class for command lines that start up various HBase daemons.
- ServerCommandLine() - 类 的构造器org.apache.hadoop.hbase.util.ServerCommandLine
-
- ServerConfigurationKeys - org.apache.hadoop.hbase.http中的接口
-
This interface contains constants for configuration keys used
in the hbase http server code.
- ServerListener - org.apache.hadoop.hbase.master中的接口
-
Get notification of server registration events.
- ServerLoad - org.apache.hadoop.hbase中的类
-
- ServerLoad(ClusterStatusProtos.ServerLoad) - 类 的构造器org.apache.hadoop.hbase.ServerLoad
-
已过时。
DONT USE this construction.
- ServerLoad(ServerName, ClusterStatusProtos.ServerLoad) - 类 的构造器org.apache.hadoop.hbase.ServerLoad
-
已过时。
- ServerLoad(ServerMetrics) - 类 的构造器org.apache.hadoop.hbase.ServerLoad
-
已过时。
- serverLoad - 类 中的变量org.apache.hadoop.hbase.ServerLoad
-
已过时。
- ServerManager - org.apache.hadoop.hbase.master中的类
-
The ServerManager class manages info about region servers.
- ServerManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.ServerManager
-
Constructor.
- ServerMetrics - org.apache.hadoop.hbase中的接口
-
This class is used for exporting current state of load on a RegionServer.
- ServerMetricsBuilder - org.apache.hadoop.hbase中的类
-
- serverName - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
The server name the Master sees us as.
- ServerName - org.apache.hadoop.hbase中的类
-
Name of a particular incarnation of an HBase Server.
- ServerName(String, int, long) - 类 的构造器org.apache.hadoop.hbase.ServerName
-
- SERVERNAME_PATTERN - 类 中的静态变量org.apache.hadoop.hbase.ServerName
-
- SERVERNAME_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- SERVERNAME_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The serverName column qualifier.
- SERVERNAME_SEPARATOR - 类 中的静态变量org.apache.hadoop.hbase.ServerName
-
This character is used as separator between server hostname, port and
startcode.
- ServerNonceManager - org.apache.hadoop.hbase.regionserver中的类
-
Implementation of nonce manager that stores nonces in a hash map and cleans them up after
some time; if nonce group/client ID is supplied, nonces are stored by client ID.
- ServerNonceManager(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- ServerNotRunningYetException - org.apache.hadoop.hbase.ipc中的异常错误
-
- ServerNotRunningYetException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.ServerNotRunningYetException
-
- ServerRegionReplicaUtil - org.apache.hadoop.hbase.util中的类
-
- ServerRegionReplicaUtil() - 类 的构造器org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- serverRemoved(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.ServerListener
-
The server was removed from the cluster.
- ServerRpcController - org.apache.hadoop.hbase.ipc中的类
-
Used for server-side protobuf RPC service invocations.
- ServerRpcController() - 类 的构造器org.apache.hadoop.hbase.ipc.ServerRpcController
-
- SERVERSTART_WAIT_MAX_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.RegionMover
-
- ServerStatistics - org.apache.hadoop.hbase.client.backoff中的类
-
Track the statistics for a single region
- ServerStatistics() - 类 的构造器org.apache.hadoop.hbase.client.backoff.ServerStatistics
-
- ServerStatistics.RegionStatistics - org.apache.hadoop.hbase.client.backoff中的类
-
- ServerStatisticTracker - org.apache.hadoop.hbase.client中的类
-
Tracks the statistics for multiple regions
- ServerStatisticTracker() - 类 的构造器org.apache.hadoop.hbase.client.ServerStatisticTracker
-
- serverStats - 类 中的变量org.apache.hadoop.hbase.client.MetricsConnection
-
- ServerTooBusyException - org.apache.hadoop.hbase.ipc中的异常错误
-
Throw this in RPC call if there are too many pending requests for one region server
- ServerTooBusyException(InetSocketAddress, long) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.ServerTooBusyException
-
- service(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hbase.rest.RESTServletContainer
-
This container is used only if authentication and
impersonation is enabled.
- SERVICE_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.JSONMetricUtil
-
- ServiceCaller<S,R> - org.apache.hadoop.hbase.client中的接口
-
Delegate to a protobuf rpc call.
- ServiceNotRunningException - org.apache.hadoop.hbase中的异常错误
-
- ServiceNotRunningException() - 异常错误 的构造器org.apache.hadoop.hbase.ServiceNotRunningException
-
- ServiceNotRunningException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ServiceNotRunningException
-
- ServiceNotRunningException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.ServiceNotRunningException
-
- ServiceNotRunningException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.ServiceNotRunningException
-
- services - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- services - 类 中的变量org.apache.hadoop.hbase.regionserver.LogRoller
-
- services - 类 中的静态变量org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- Servlet() - 类 的构造器org.apache.hadoop.hbase.http.log.LogLevel.Servlet
-
- set(String, String) - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- set(KeyValue.KeyOnlyKeyValue) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- set(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Set the RateLimiter max available resources and refill period.
- set(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- set(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- set(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Reuse this ByteRange over a new byte[].
- set(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Reuse this ByteRange over a new byte[].
- set(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Reuse this ByteRange over a new byte[].
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- set(long) - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- set(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- set(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- set(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- set(int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- set(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- set(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- set(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- set(int, E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
- setACL(Map<String, Permission>) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setACL(String, Permission) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setACL(AccessControlList) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setAcl(String, List<ACL>, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
setAcl is an idempotent operation.
- setAllowPartialResults(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Setting whether the caller wants to see the partial results when server returns
less-than-expected cells.
- setAppDir(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setAsyncPrefetch(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setAttribute(String, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Attributes
-
Sets an attribute.
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setAttribute(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- setAuthorizations(Authorizations) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setAuthorizations(Authorizations) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Sets the authorizations to be used by this Query
- setAuthorizations(Authorizations) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setBackerMasterNames(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setBackoffPolicy(RetryCounter.BackoffPolicy) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- setBalancerOn(Boolean) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setBalancerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.LoadBalancerTracker
-
Set the balancer on/off.
- setBalancerRunning(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- setBalancerRunning(RpcController, MasterProtos.SetBalancerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- setBalancerRunning(RpcController, MasterProtos.SetBalancerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setBandwidth(long) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setBandwidth(long) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets the speed, in bytes per second, for any one RegionServer to replicate data to the peer.
- setBatch(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the maximum number of cells to return for each call to next().
- setBatchLimit(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setBindAddress(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setBlockCacheEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setBlockCacheEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setBlockCacheEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setBlockCacheSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- setBlockedFlushCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setBlocksize(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setBlocksize(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setBlocksize(int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setBloomFilterSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setBloomFilterType(BloomType) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setBloomFilterType(BloomType) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setBloomFilterType(BloomType) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setBody(byte[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- setBulkLoaded(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- setCacheBlocks(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Set whether blocks should be cached for this Get.
- setCacheBlocks(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set whether blocks should be cached for this Scan.
- setCacheBloomsOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setCacheBloomsOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCacheBloomsOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setCacheDataInL1(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
- setCacheDataOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setCacheDataOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCacheDataOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setCacheDataOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Only used for testing.
- setCacheIndexesOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setCacheIndexesOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCacheIndexesOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setCacheMissCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCacheMobBlocks(Scan, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mob.MobUtils
-
Sets the attribute of caching blocks in the scan.
- setCacheOff() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Disables the tabledescriptor cache
- setCacheOff() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- setCacheOn() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Enables the tabledescriptor cache
- setCacheOn() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- setCaching(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the number of rows for caching that will be passed to scanners.
- setCaching(int) - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
Set the number of rows that will be fetched on next
- setCallBack(RpcCallback) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Sets a callback which has to be executed at the end of this RPC call.
- setCallTimeMs(long) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- setCallTimeout(int) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setCallTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- setCallTimeout(int) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setCatalogJanitorEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Switch for the background CatalogJanitor thread.
- setCells(ArrayList<Cell>) - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
This is not thread safe.
- setCellScanner(CellScanner) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setCellScanner(CellScanner) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- setCellScanner(CellScanner) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setCellSet(CellSet, CellSet) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
Setting the CellSet of the segment - used only for flat immutable segment for setting
immutable CellSet after its creation in immutable segment constructor
- setCellSet(CellSet, CellSet) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
Setting the CellSet of the segment - used only for flat immutable segment for setting
immutable CellSet after its creation in immutable segment constructor
- setCellVisibility(CellVisibility) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setCellVisibility(CellVisibility) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setCellVisibility(CellVisibility) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setCellVisibility(CellVisibility) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Sets the visibility expression associated with cells in this Mutation.
- setCellVisibility(CellVisibility) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setChance(float) - 类 中的方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
Set the chance that a row is included.
- setCharset(Charset) - 类 中的方法org.apache.hadoop.hbase.filter.RegexStringComparator
-
Specifies the
Charset to use to convert the row key to a String.
- setCheckExistenceOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setCheckHdfs(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setCipher(Cipher) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- setCipher(Cipher) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Encryption.Context
-
- setCleanerChoreRunning(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- setCleanerChoreRunning(RpcController, MasterProtos.SetCleanerChoreRunningRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- setCleanerChoreRunning(RpcController, MasterProtos.SetCleanerChoreRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setCleanReplicationBarrier(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setCleanReplicationBarrierTable(String) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setClose() - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
Call this when the next invocation of call should close the scanner
- setClosestRowBefore(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setClosing(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Exposed for some very specific unit tests.
- setCluster(Cluster) - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
- setClusterDown() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Sets the cluster as down by deleting the znode.
- setClusterId(String) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setClusterId(FileSystem, Path, ClusterId, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Writes a new unique identifier for this cluster to the "hbase.id" file
in the HBase root directory
- setClusterId(ZKWatcher, ClusterId) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKClusterId
-
- setClusterIds(List<UUID>) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setClusterIds(List<UUID>) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setClusterIds(List<UUID>) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setClusterIds(List<UUID>) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Marks that the clusters with the given clusterIds have consumed the mutation
- setClusterIds(List<UUID>) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setClusterKey(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setClusterKey(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Set the clusterKey which is the concatenation of the slave cluster's:
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- setClusterLoad(Map<TableName, Map<ServerName, List<RegionInfo>>>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Pass RegionStates and allow balancer to set the current cluster load.
- setClusterLoad(Map<TableName, Map<ServerName, List<RegionInfo>>>) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- setClusterMetrics(ClusterMetrics) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Set the current cluster status.
- setClusterMetrics(ClusterMetrics) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- setClusterUp() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Sets the cluster as up.
- setCode(int) - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- setColumnFamilies(Collection<ColumnFamilyDescriptor>) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setColumnFamily(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Adds a column family.
- setColumnFamily(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setColumnFamilyTimeRange(byte[], long, long) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setColumnFamilyTimeRange(byte[], long, long) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Get versions of columns only within the specified timestamp range,
[minStamp, maxStamp) on a per CF bases.
- setColumnFamilyTimeRange(byte[], long, long) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setCompactedCellCount(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setCompactingCellCount(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setCompactionCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Compression types supported in hbase.
- setCompactionCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCompactionCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Compression types supported in hbase.
- setCompactionEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Setting the table compaction enable flag.
- setCompactionEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setCompactionEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setting the table compaction enable flag.
- setCompactionType(MobCompactionRequest.CompactionType) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
- setComparatorClass(Class<? extends CellComparator>) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setCompletedSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setCompositeSnapshot(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- setCompressionCodec(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setCompressionContext(CompressionContext) - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
- setCompressionContext(CompressionContext) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- setCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Compression types supported in hbase.
- setCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCompressionType(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Compression types supported in hbase.
- setCompressTags(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set whether the tags should be compressed along with DataBlockEncoding.
- setCompressTags(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setCompressTags(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set whether the tags should be compressed along with DataBlockEncoding.
- setCompressTags(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- setConcurrentCallsPerServer(int) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.BaseConfigurable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.favored.FavoredNodeLoadBalancer
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.io.crypto.CryptoCipherProvider
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.io.crypto.DefaultCipherProvider
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.UserProvider
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- setConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Setter for storing a configuration setting.
- setConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setter for storing a configuration setting in map.
- setConfiguration(String, String) - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- setConflictWaitIterationMs(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- setConsistency(Consistency) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setConsistency(Consistency) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Sets the consistency level for this operation
- setConsistency(Consistency) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setControllerException(RpcController, IOException) - 类 中的静态方法org.apache.hadoop.hbase.ipc.CoprocessorRpcUtils
-
Stores an exception encountered during RPC invocation so it can be passed back
through to the client.
- setControllerException(RpcController, IOException) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ResponseConverter
-
Stores an exception encountered during RPC invocation so it can be passed back
through to the client.
- setCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Add a table coprocessor to this table.
- setCoprocessor(CoprocessorDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Add a table coprocessor to this table.
- setCoprocessor(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setCoprocessor(CoprocessorDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setCoprocessorHost(RegionCoprocessorHost) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- setCoprocessorNames(List<String>) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setCoprocessors(Collection<CoprocessorDescriptor>) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setCoprocessorWithSpec(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setCurBlockCacheSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurBlockCacheSizeGauge(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
Set the current blockcache size used gauge
- setCurBlockCacheSizeGauge(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
Set the current blockcache size used gauge
- setCurBlockCacheSizeGauge(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- setCurBlockCacheUsed(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurMemStoreSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurMemStoreSizeGauge(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManager
-
Set the current global memstore size used gauge
- setCurMemStoreSizeGauge(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSource
-
Set the current global memstore size used gauge
- setCurMemStoreSizeGauge(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsHeapMemoryManagerSourceImpl
-
- setCurMemStoreUsed(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurrentBuffer(ByteBuff) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder.EncodedSeeker
-
Set on which buffer there will be done seeking.
- setCurrentBuffer(ByteBuff) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- setCurrentCell(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- setCurrentState(String, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.NamespaceQuotaSnapshotStore
-
- setCurrentState(T, SpaceQuotaSnapshot) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaSnapshotStore
-
- setCurrentState(TableName, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- setCurTaskZKVersion(MutableInt) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- setDaemon(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- setDaemonThreadRunning(T) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Utility method that sets name, daemon status and starts passed thread.
- setDaemonThreadRunning(T, String) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Utility method that sets name, daemon status and starts passed thread.
- setDaemonThreadRunning(T, String, Thread.UncaughtExceptionHandler) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Utility method that sets name, daemon status and starts passed thread.
- setData(String, byte[], int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
setData is NOT an idempotent operation.
- setData(ZKWatcher, String, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Sets the data of the existing znode to be the specified data.
- setData(ZKWatcher, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Sets the data of the existing znode to be the specified data.
- setData(String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp
-
- setData(String, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil.ZKUtilOp
-
- setDataBlockEncoding(DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set data block encoding algorithm used in block cache.
- setDataBlockEncoding(DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setDataBlockEncoding(DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set data block encoding algorithm used in block cache.
- setDataIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setDataLocality(float) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setDate(String) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- setDeadServerNames(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setDefaultClientPort(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- setDeletedTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MirroringTableStateManager
-
已过时。
- setDeletedTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- setDeleteFamilyBloomFilterFaulty() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- setDestination(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Set the destination server for the plan for this region.
- setDetails(SplitLogManagerCoordination.SplitLogManagerDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Provide the configuration from the SplitLogManager
- setDetails(SplitLogManagerCoordination.SplitLogManagerDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- setDFSReplication(short) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set the replication factor to hfile(s) belonging to this family
- setDFSReplication(short) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setDFSReplication(short) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set the replication factor to hfile(s) belonging to this family
- setDisplayFullReport() - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Display the full report from fsck.
- setDone(CellScanner) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setDone(CellScanner) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
IMPORTANT: always call this method if the call finished without any exception to tell
the HBaseRpcController that we are done.
- setDone(CellScanner) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Set the durability for this mutation
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- setEffectiveUser(String) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Set the current thread local effective user
- setEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- setEncodingState(EncodingState) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- setEncodingState(EncodingState) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockEncodingContext
-
Sets the encoding state.
- setEncryptionContext(Encryption.Context) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- setEncryptionKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set the raw crypto key attribute for the family
- setEncryptionKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setEncryptionKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set the raw crypto key attribute for the family
- setEncryptionKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setEncryptionType(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set the encryption algorithm for use with this family
- setEncryptionType(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setEncryptionType(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set the encryption algorithm for use with this family
- setEncryptor(Encryptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- setEncryptor(Encryptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureAsyncProtobufLogWriter
-
- setEncryptor(Encryptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- setEndKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setEndKey(Configuration, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setEndKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- setEndKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
Set end key of this partition, only if the input endKey is greater than
the current end key.
- setEndRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setEndRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setEndTime(long) - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- setEntries(List<WAL.Entry>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setEntry(SingleResponse.Entry) - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse
-
- setEntryCount(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setErrorHandler(HBaseRPCErrorHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Set the handler for calling out of RPC for error conditions.
- setErrorHandler(HBaseRPCErrorHandler) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setEventLoopConfig(Configuration, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.ipc.NettyRpcClientConfigHelper
-
Set the EventLoopGroup and channel class for AsyncRpcClient.
- setEventLoopConfig(Configuration, EventLoopGroup, Class<? extends Channel>) - 类 中的静态方法org.apache.hadoop.hbase.wal.NettyAsyncFSWALConfigHelper
-
Set the EventLoopGroup and channel class for AsyncFSWALProvider.
- setEvictBlocksOnClose(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setEvictBlocksOnClose(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setEvictBlocksOnClose(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setEvictCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setEvictOnClose(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Only used for testing.
- setExcludeNamespaces(Set<String>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setExcludeNamespaces(Set<String>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets the collection of namespaces which should not be replicated when all user tables are
configured to be replicated.
- setExcludeTableCFsMap(Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setExcludeTableCFsMap(Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets the mapping of table name to column families which should not be replicated.
- setExists(Boolean) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- setFailed(String) - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- setFailed(Throwable) - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- setFailed(String) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setFailed(IOException) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setFailed(IOException) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
Set failed with an exception to pass on.
- setFailed(String) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setFailed(IOException) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setFailed(String) - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
- setFailedOn(IOException) - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
Sets an exception to be communicated back to the Service client.
- setFakeLookupMode(boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
- setFamily(byte[]) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setFamily(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setFamily(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setFamily(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setFamily(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setFamily(byte[]) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setFamily(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setFamilyCellMap(NavigableMap<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setFamilyCellMap(NavigableMap<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setFamilyCellMap(NavigableMap<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setFamilyCellMap(NavigableMap<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- setFamilyCellMap(NavigableMap<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setFamilyMap(Map<byte[], NavigableSet<byte[]>>) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Setting the familyMap
- setFileCreateTime(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- setFileInfoOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setFilename(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- setFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Apply the specified server-side filter when performing the Query.
- setFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setFilteredReadRequestCount(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setFilterIfMissing(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Set whether entire row should be filtered if column is not found.
- setFindPort(boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setFirst(T) - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- setFirst(T1) - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
Replace the first element of the pair.
- setFirst(A) - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- setFirstDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setFirstRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setFirstRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setFirstRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
In HBase, the last row is represented by an empty byte array.
- setFirstRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Set the first row
- setFirstRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setFirstRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setFixAssignments(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Fix inconsistencies found by fsck.
- setFixEmptyMetaCells(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsHoles(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsOrphans(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsOverlaps(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHFileLinks(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixMeta(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixReferenceFiles(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set replication fix mode.
- setFixSplitParents(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixTableOrphans(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixVersionFile(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFlushPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
This sets the class associated with the flush policy which determines
determines the stores need to be flushed when flushing a region.
- setFlushPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setFlushPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
This sets the class associated with the flush policy which determines determines the stores
need to be flushed when flushing a region.
- setFlushSizeLowerBounds(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- setForceExclusive() - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set exclusive mode.
- setFoundKV(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- setFsDefault(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- setGeneralBloomFilterFaulty() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- setGlobalMemStoreLimit(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Sets the global memstore limit to a new size.
- setHBaseVersion(String) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setHeaders(Header[]) - 类 中的方法org.apache.hadoop.hbase.rest.client.Response
-
- setHFileCorruptionChecker(HFileCorruptionChecker) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Sets the HBase table.
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
This method allows you to set an identifier on an operation.
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setId(String) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setIgnoreDeleteForTesting(boolean) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
Temporary function that is used by unit tests only
- setIgnorePreCheckPermission(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setIncludesMvcc(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- setIncludesTags(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- setInfoFamilyCachingForMeta(TableDescriptor, boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Enable in memory caching for hbase:meta
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hbase.master.ActiveMasterManager
-
- setInfoServerPort(int) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setInitialized(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- setInMemory(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setInMemory(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setInMemory(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setInMemoryCompaction(MemoryCompactionPolicy) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setInMemoryCompaction(MemoryCompactionPolicy) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setInMemoryCompaction(MemoryCompactionPolicy) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
Configure conf to read from snapshotScans, with snapshots restored to a subdirectory of
restoreDir.
- setInput(JobConf, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(JobConf, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
Configure conf to read from snapshotScans, with snapshots restored to a subdirectory of
restoreDir.
- setInput(Job, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Job, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setIsolationLevel(IsolationLevel) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setIsolationLevel(IsolationLevel) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Set the isolation level for this query.
- setIsolationLevel(IsolationLevel) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setIv(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- setIv(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- setIv(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- setIv(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- setIv(byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Set the initialization vector
- setIv(byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Set the initialization vector
- setJarPath(String) - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptorBuilder
-
- setKeepDeletedCells(KeepDeletedCells) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setKeepDeletedCells(KeepDeletedCells) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setKeepDeletedCells(KeepDeletedCells) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setKeepDeletedCells(KeepDeletedCells) - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- setKeepDeletedCells(KeepDeletedCells) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- setKeepProgress(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setKerberosNameRulesKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setKey(ByteBuffer, int, int) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
A setter that helps to avoid object creation every time and whenever
there is a need to create new OffheapKeyOnlyKeyValue.
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESDecryptor
-
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.AESEncryptor
-
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESDecryptor
-
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.aes.CommonsCryptoAESEncryptor
-
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- setKey(Key) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Decryptor
-
Set the secret key
- setKey(Key) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Encryption.Context
-
- setKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.crypto.Encryption.Context
-
- setKey(Key) - 接口 中的方法org.apache.hadoop.hbase.io.crypto.Encryptor
-
Set the secret key
- setKey(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
A setter that helps to avoid object creation every time and whenever
there is a need to create new KeyOnlyKeyValue.
- setKeytabConfKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setKeyValues(Configuration, String, Collection<Map.Entry<String, String>>) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
- setKeyValues(Configuration, String, Collection<Map.Entry<String, String>>, char) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Store a collection of Map.Entry's in conf, with each entry separated by ','
and key values delimited by delimiter.
- setLastDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setLastMajorCompactionTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setLastReportTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setLastRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setLastRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setLastRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
In HBase, the last row is represented by an empty byte array.
- setLastRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Set the last row
- setLastRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setLastRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setLastSequenceIds(String, Map<String, Long>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Set the max sequence id of a bunch of regions for a given peer.
- setLatestVersionOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Set whether only the latest version of the column value should be compared.
- setLength(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- setLength(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
Update the length of this range.
- setLength(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Update the length of this range.
- setLength(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- setLength(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Update the length of this range.
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the limit of rows for this scan.
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- setLimit(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Limits the byte range upto a specified value.
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- setLiveServerMetrics(Map<ServerName, ServerMetrics>) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setLoadColumnFamiliesOnDemand(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setLoadColumnFamiliesOnDemand(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Set the value indicating whether loading CFs on demand should be allowed (cluster
default is false).
- setLoadColumnFamiliesOnDemand(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setLoadOnOpenOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setLocation(HRegionLocation) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- setLocations(Path, Path...) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
NOTE: This method must be used only in the constructor!
- setLogDir(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setLoggingUncaughtExceptionHandler(Thread) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Sets an UncaughtExceptionHandler for the thread which logs the
Exception stack if the thread dies.
- setMapperClass(Job, Class<? extends Mapper<ImmutableBytesWritable, Result, K2, V2>>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Set the application's mapper class.
- setMasterAddress(ZKWatcher, String, ServerName, int) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MasterAddressTracker
-
Set master address into the master znode or into the backup
subdirectory of backup masters; switch off the passed in znode
path.
- setMasterCoprocessorNames(List<String>) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setMasterInfoPort(int) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setMasterName(ServerName) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setMasterServices(MasterServices) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Set the master service.
- setMasterServices(MasterServices) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- setMax(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- setMax(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- setMax(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- setMaxAttempts(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set the max attempt times for an admin operation.
- setMaxAttempts(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set the max attempt times for an operation.
- setMaxAttempts(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set the max attempt times for an operation.
- setMaxAttempts(int) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- setMaxChunkSize(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- setMaxFileSize(long) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Sets the maximum size upto which a region can grow to after which a
region split is triggered.
- setMaxFileSize(long) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setMaxFileSize(long) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Sets the maximum size upto which a region can grow to after which a region
split is triggered.
- setMaxHeapSize(Size) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setMaxMerge(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setMaxOverlapsToSideline(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setMaxResultSize(long) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the maximum result size.
- setMaxResultsPerColumnFamily(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Set the maximum number of values to return per row per Column Family
- setMaxResultsPerColumnFamily(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the maximum number of values to return per row per Column Family
- setMaxRetries(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set the max retry times for an admin operation.
- setMaxRetries(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set the max retry times for an operation.
- setMaxRetries(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set the max retry times for an operation.
- setMaxSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- setMaxSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- setMaxSize(long) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.ResizableBlockCache
-
Sets the max heap size that can be used by the BlockCache.
- setMaxSleepTime(long) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- setMaxThroughput(double) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- setMaxValues(int) - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setMaxVersions() - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setMaxVersions() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- setMaxVersions(int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- setMemStoreFlushSize(long) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Represents the maximum size of the memstore after which the contents of
the memstore are flushed to the filesystem.
- setMemStoreFlushSize(long) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setMemStoreFlushSize(long) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Represents the maximum size of the memstore after which the contents of the
memstore are flushed to the filesystem.
- setMemStoreSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setMemStoreSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- setMerged(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- setMetaIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setMetaLocation(ZKWatcher, ServerName, RegionState.State) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Sets the location of hbase:meta in ZooKeeper to the
specified server address.
- setMetaLocation(ZKWatcher, ServerName, int, RegionState.State) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Sets the location of hbase:meta in ZooKeeper to the specified server address.
- setMetricsSource(JvmPauseMonitorSource) - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- setMin(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.NonSyncTimeRangeTracker
-
- setMin(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- setMin(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker.SyncTimeRangeTracker
-
- setMinIndexNumEntries(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- setMinVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setMinVersions(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setMinVersions(int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setMobCompactPartitionPolicy(MobCompactPartitionPolicy) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set the mob compact partition policy for the family.
- setMobCompactPartitionPolicy(MobCompactPartitionPolicy) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setMobCompactPartitionPolicy(MobCompactPartitionPolicy) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set the mob compact partition policy for the family.
- setMobEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Enables the mob for the family.
- setMobEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setMobEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Enables the mob for the family.
- setMobThreshold(long) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Sets the mob threshold of the family.
- setMobThreshold(long) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setMobThreshold(long) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Sets the mob threshold of the family.
- setMvccReadPoint(Scan, long) - 类 中的静态方法org.apache.hadoop.hbase.client.PackagePrivateFieldAccessor
-
- setName(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setName(String) - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- setNamespaceFilter(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
Set the namespace filter regex
- setNamespaceQuota(String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setNamespaceQuota(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setNamespaces(Set<String>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setNamespaces(Set<String>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets a unique collection of HBase namespaces that should be replicated to this peer.
- setNeedCursorResult(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
When the server is slow or we scan a table with many deleted data or we use a sparse filter,
the server will response heartbeat to prevent timeout.
- setNeedResults(boolean) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setNewStartKey() - 类 中的方法org.apache.hadoop.hbase.client.ClientScanner
-
Will be called in moveToNextRegion when currentRegion is null.
- setNewStartKey() - 类 中的方法org.apache.hadoop.hbase.client.ClientSimpleScanner
-
- setNewStartKey() - 类 中的方法org.apache.hadoop.hbase.client.ReversedClientScanner
-
- setNewVersionBehavior(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setNewVersionBehavior(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setNewVersionBehavior(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- setNonce(long) - 类 中的方法org.apache.hadoop.hbase.client.Action
-
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
- setNonSeekedState() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.EncodedScanner
-
- setNonSeekedState() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- setNormalizationEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Setting the table normalization enable flag.
- setNormalizationEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setNormalizationEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setting the table normalization enable flag.
- setNormalizerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
Set region normalizer on/off
- setNormalizerRunning(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- setNormalizerRunning(RpcController, MasterProtos.SetNormalizerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- setNormalizerRunning(RpcController, MasterProtos.SetNormalizerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setNoStripeMetadata() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- setNumberOfThreads(Job, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Set the number of threads in the pool for running maps.
- setNumDataIndexLevels(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setNumMapTasks(String, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of map tasks for the given job configuration to the
number of regions the given table has.
- setNumNamespacesInSpaceQuotaViolation(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the number of namespaces in violation of a space quota.
- setNumReduceTasks(String, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of reduce tasks for the given job configuration to the
number of regions the given table has.
- setNumReduceTasks(String, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets the number of reduce tasks for the given job configuration to the
number of regions the given table has.
- setNumRegionSizeReports(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the number of region size reports the master currently has in memory.
- setNumSpaceQuotas(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the number of space quotas defined.
- setNumTableInSpaceQuotaViolation(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
Sets the number of table in violation of a space quota.
- setOffheapMemStore(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setOffline(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ImmutableHRegionInfo
-
已过时。
- setOffline(boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setOffline(boolean) - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
The parent of a region split is offline while split daughters hold
references to the parent.
- setOffset(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- setOffset(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
Update the beginning of this range.
- setOffset(int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Update the beginning of this range.
- setOffset(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- setOffset(int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Update the beginning of this range.
- setOneRowLimit() - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Call this when you only want to get one row.
- setOperationStatus(int, OperationStatus) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Sets the status code for the operation(Mutation) at the specified position.
- setOperationTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set timeout for a whole admin operation.
- setOperationTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set timeout for the background flush operation.
- setOperationTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setOperationTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set timeout for a whole operation such as get, put or delete.
- setOperationTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Set operation timeout for this mutator instance
- setOperationTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- setOperationTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- setOperationTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- setOperationTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.TableBuilder
-
Set timeout for a whole operation such as get, put or delete.
- setOperationTimeout(int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- setOrigLogSeqNum(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
Used to set original sequenceId for WALKeyImpl during WAL replay
- setOwner(User) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
已过时。
- setOwner(User) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
已过时。
- setOwner(User) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- setOwnerString(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
已过时。
- setOwnerString(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
已过时。
- setOwnerString(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- setPathSpec(String[]) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setPeerConfig(ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
- setPeerState(boolean) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerImpl
-
- setPeerState(String, boolean) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerStorage
-
Set the state of peer, true to ENABLED, otherwise to DISABLED.
- setPeerState(String, boolean) - 类 中的方法org.apache.hadoop.hbase.replication.ZKReplicationPeerStorage
-
- setPeerTableCFs(String, Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- setPolicy(HttpConfig.Policy) - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- setPool(ExecutorService) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setPort(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setPosition(int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- setPosition(int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
Update the position index.
- setPrefetchBlocksOnOpen(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setPrefetchBlocksOnOpen(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setPrefetchBlocksOnOpen(boolean) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setPrintStreams(PrintStream, PrintStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptorBuilder
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.OperationWithAttributes
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setPriority(TableName) - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- setPriority(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- setPriority(TableName) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcController
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setPriority(TableName) - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- setProcessed(boolean) - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse.Entry
-
- setProperties(Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptorBuilder
-
- setProperty(String, String) - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorDescriptorBuilder
-
- setQualifier(byte[]) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setQualifier(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setQualifier(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setQualifier(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setQualifier(byte[]) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setQualifier(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setQualifier(byte[]) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setQualifier(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setQuota(QuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Apply the new quota settings.
- setQuota(QuotaSettings) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Apply the new quota settings.
- setQuota(QuotaSettings) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- setQuota(RpcController, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- setQuota(RpcController, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setQuota(MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setQuotas(QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
Setup the global quota information.
- setQuotas(QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- setQuotas(TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Add the quota information of the specified table.
- setQuotas(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Add the quota information of the specified namespace.
- setQuotaSnapshot(SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- setRaw(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Enable/disable "raw" mode for this scan.
- setReadOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Setting the table as read only sets all the columns in the table as read
only.
- setReadOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setReadOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setting the table as read only sets all the columns in the table as read
only.
- setReadRequestCount(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setReadRpcTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set timeout for each read(get, scan) rpc request.
- setReadRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- setReadRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- setReadRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.TableBuilder
-
Set timeout for each read(get, scan) rpc request.
- setReadRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- setReadsEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- setReadType(Scan.ReadType) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set the read type for this scan.
- setRegionCoprocessorHost(RegionCoprocessorHost) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Sets the region coprocessor env.
- setRegionFilter(String) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setRegionId(long) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setRegionMemStoreReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Enable or Disable the memstore replication from the primary region to the
replicas.
- setRegionMemStoreReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setRegionMemstoreReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
- setRegionMemStoreReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Enable or Disable the memstore replication from the primary region to the replicas.
- setRegionMetrics(List<RegionMetrics>) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setRegionReplication(int) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
Sets the number of replicas per region.
- setRegionReplication(int) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setRegionReplication(int) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Sets the number of replicas per region.
- setRegionServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Set the list of region servers for that peer
- setRegionServerServices(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- setRegionsInTransition(List<RegionState>) - 类 中的方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- setRegionSplitPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
This sets the class associated with the region split policy which
determines when a region split should occur.
- setRegionSplitPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setRegionSplitPolicyClassName(String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
This sets the class associated with the region split policy which
determines when a region split should occur.
- setRegionUsage(Map<RegionInfo, Long>) - 类 中的方法org.apache.hadoop.hbase.quotas.NamespaceQuotaSnapshotStore
-
- setRegionUsage(Map<RegionInfo, Long>) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaSnapshotStore
-
Updates this with the latest snapshot of filesystem use by region.
- setRegionUsage(Map<RegionInfo, Long>) - 类 中的方法org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- setRemoveParents(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setRenew(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ScannerCallable
-
Indicate whether we make a call only to renew the lease, but without affected the scanner in
any other way.
- setReplicaId(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setReplicaId(int) - 类 中的方法org.apache.hadoop.hbase.client.Query
-
Specify region replica id where Query will fetch data from.
- setReplicaId(int) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setReplicaId(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setReplicateAllUserTables(boolean) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setReplicateAllUserTables(boolean) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Configures HBase to replicate all user tables (not system tables) to the peer.
- setReplicationEndpointImpl(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setReplicationEndpointImpl(String) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets the ReplicationEndpoint plugin class for this peer.
- setReplicationLoadSink(ReplicationLoadSink) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setReplicationLoadSources(List<ReplicationLoadSource>) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setReplicationScope(int) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
Sets replication scope all & only the columns already in the builder.
- setReportTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setRequestCount(long) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setRequestCountPerSecond(long) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setRequestSizeBytes(long) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- setResponse(Message, CellScanner, Throwable, String) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Set the response resulting from this RPC call.
- setResponseSizeBytes(long) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- setResult(Result) - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse.Entry
-
- setRetainDays(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- setRetCode(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setRetryPause(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set the base pause time for retrying.
- setRetryPause(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set the base pause time for retrying.
- setRetryPause(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set the base pause time for retrying.
- setReturnResults(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setReturnResults(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setReturnResults(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
- setReversed(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set whether this scan is a reversed one
This is false by default which means forward(normal) scan.
- setReversed(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
alter the reversed scan flag
- setReversed(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- setReversed(boolean) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- setRIT(int) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
Set the number of regions in transition.
- setRIT(int) - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- setRITCountOverThreshold(int) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
Set the count of the number of regions that have been in transition over the threshold time.
- setRITCountOverThreshold(int) - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- setRITOldestAge(long) - 接口 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
Set the oldest region in transition.
- setRITOldestAge(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManagerSourceImpl
-
- setRootDir(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- setRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setRow(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setRow(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setRow(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setRow(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setRowAccess(List<? extends Row>) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setRowAccess(RowAccess<? extends Row>) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to set the
Filter to be used.
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setRowFilter(String) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setRowOffsetPerColumnFamily(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Set offset for the row per Column Family.
- setRowOffsetPerColumnFamily(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set offset for the row per Column Family.
- setRowPrefixFilter(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Set a filter (using stopRow and startRow) so the result set only contains rows where the
rowKey starts with the specified prefix.
- setRpcControllerCellScanner(CellScanner) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- setRpcTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set timeout for each rpc request.
- setRpcTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set timeout for each rpc request when doing background flush.
- setRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setRpcTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set timeout for each rpc request.
- setRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Set rpc timeout for this mutator instance
- setRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- setRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- setRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- setRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.TableBuilder
-
Set timeout for each rpc request.
- setRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- setRsGroupInfoManager(RSGroupInfoManager) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- setRsRpcServices(RSRpcServices) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- setRsRpcServices(RSRpcServices) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setRunner(Runnable) - 类 中的方法org.apache.hadoop.hbase.client.DelayingRunner
-
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Sets the scan defining the actual details like columns etc.
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Sets the scan defining the actual details like columns etc.
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Sets the scan defining the actual details like columns etc.
- setScanMetricsEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Enable collection of ScanMetrics.
- setScannerCaching(JobConf, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of rows to return and cache with each scanner iteration.
- setScannerCaching(Job, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets the number of rows to return and cache with each scanner iteration.
- setScans(List<Scan>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Allows subclasses to set the list of
Scan objects.
- setScanTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
As now we have heartbeat support for scan, ideally a scan will never timeout unless the RS is
crash.
- setScope(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setScope(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setScope(int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setSecond(int) - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- setSecond(T2) - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
Replace the second element of the pair.
- setSecond(B) - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- setSecretManager(SecretManager<? extends TokenIdentifier>) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- setSecurityEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setSequenceFilter(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- setSequenceId(Cell, long) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- setSequenceId(long) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Sets with the given seqId.
- setSequenceId(long) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
Internal usage.
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- setSequenceId(Cell, long) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Sets the given seqId to the cell.
- setSequenceID(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- setSerial(boolean) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets whether we should preserve order when replicating, i.e, serial replication.
- setServerSideHConnectionRetriesConfig(Configuration, String, Logger) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
Changes the configuration to set the number of retries needed when using Connection internally,
e.g. for updating catalog tables, etc.
- setSidelineBigOverlaps(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setSidelineDir(String) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setSignatureSecretFileKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setSize(int) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setSizeLimit(ScannerContext.LimitScope, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setSkipChecks(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- setSleepInterval(long) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- setSmall(boolean) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setSnapshotDirs(Configuration, Map<String, Path>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- setSnapshotToScans(Configuration, Map<String, Collection<Scan>>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- setSocketSendBufSize(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Sets the socket buffer size used for responding to RPCs.
- setSplit(boolean) - 类 中的方法org.apache.hadoop.hbase.client.ImmutableHRegionInfo
-
已过时。
- setSplit(boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setSplit(boolean) - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- setSplitOrMergeEnabled(boolean, boolean, MasterSwitchType...) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- setSplitOrMergeEnabled(RpcController, MasterProtos.SetSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- setSplitOrMergeEnabled(RpcController, MasterProtos.SetSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setSplitOrMergeEnabled(boolean, MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.SplitOrMergeTracker
-
- setStartKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.RegionInfoBuilder
-
- setStartKey(Configuration, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setStartKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionDelPartitionId
-
- setStartKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartition
-
Set start key of this partition, only if the input startKey is less than
the current start key.
- setStartKey(String) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- setStartLogErrorsCnt(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdminBuilder
-
Set the number of retries that are allowed before we start to log.
- setStartLogErrorsCnt(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Set the number of retries that are allowed before we start to log.
- setStartLogErrorsCnt(int) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set the number of retries that are allowed before we start to log.
- setStartRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setStartRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setStartRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setStartTime(long) - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallStats
-
- setStartTime(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
Set the time when the call starts to be executed.
- setStartTime(long) - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- setStatistics(RegionLoadStats) - 类 中的方法org.apache.hadoop.hbase.client.Result
-
Set load information about the region to the information about the result
- setStatisticTracker(ServerStatisticTracker) - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerFactory
-
Set the tracker that should be used for tracking statistics about the server
- setStatus(MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- setStopRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setStoragePolicy(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set the storage policy for use with this family
- setStoragePolicy(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setStoragePolicy(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set the storage policy for use with this family
- setStoragePolicy(String, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Set the directory of CF to the specified storage policy.
- setStoragePolicy(FileSystem, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Sets storage policy for given path.
- setStoreCount(int) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreFileCount(int) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreFileIndexSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreFileRootLevelIndexSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreFileSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreFileUncompressedDataIndexSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStoreSequenceIds(Map<byte[], Long>) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setStub(AdminProtos.AdminService.BlockingInterface) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- setStub(S) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- setStubByServiceName(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.ClientServiceCallable
-
- setStubByServiceName(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
Set the RCP client stub
- setSubmittedRows(AsyncProcessTask.SubmittedRows) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
- setTableCFsMap(Map<TableName, ? extends Collection<String>>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- setTableCFsMap(Map<TableName, List<String>>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfigBuilder
-
Sets an explicit map of tables and column families in those tables that should be replicated
to the given peer.
- setTableFilter(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
Set the table filter regex
- setTableInfo(HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Set the TableInfo used by all HRegionInfos fabricated by other callbacks
- setTableInfo(HBaseFsck.TableInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Set the TableInfo used by all HRegionInfos fabricated by other callbacks
- setTableName(TableName) - 类 中的方法org.apache.hadoop.hbase.client.AsyncProcessTask.Builder
-
- setTableName(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.policies.AbstractViolationPolicyEnforcement
-
- setTableQuota(TableName, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- setTableState(TableName, TableState.State) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
Set table state to provided.
- setTableStateIfInStates(TableName, TableState.State, TableState.State...) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
Set table state to provided but only if table in specified states
Caller should lock table on write.
- setTableStateIfNotInStates(TableName, TableState.State, TableState.State...) - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
Set table state to provided but only if table not in specified states
Caller should lock table on write.
- setTagCompressionContext(TagCompressionContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultDecodingContext
-
- setTagCompressionContext(TagCompressionContext) - 类 中的方法org.apache.hadoop.hbase.io.encoding.HFileBlockDefaultEncodingContext
-
- setTags(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setTags(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setTags(List<Tag>) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setTags(byte[]) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setTags(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setTags(List<Tag>) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setTags(List<Tag>) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setTarget(String) - 类 中的方法org.apache.hadoop.hbase.AsyncConsoleAppender
-
- setTargetTableName(String[]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- setTaskNode(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- setThird(C) - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- setThreads(int, int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Set the min, max number of worker threads (simultaneous connections).
- setThreshold(long) - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- setTickTime(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- setTimeLag(long) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
We are interested in only those tables that have not changed their state in
hbase:meta during the last few seconds specified by hbase.admin.fsck.timelag
- setTimeLimit(ScannerContext.LimitScope, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setTimeoutForWriteLock(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- setTimeRange(long, long) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
Sets the TimeRange to be used on the Get for this append.
- setTimeRange(long, long) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get versions of columns only within the specified timestamp range,
[minStamp, maxStamp).
- setTimeRange(long, long) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
Sets the TimeRange to be used on the Get for this increment.
- setTimeRange(long, long) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get versions of columns only within the specified timestamp range,
[minStamp, maxStamp).
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- setTimestamp(byte[]) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- setTimestamp(byte[]) - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- setTimestamp(long) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setTimestamp(Cell, long) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- setTimestamp(Cell, byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setTimeStamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Get versions of columns with the specified timestamp.
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Set the timestamp of the delete.
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setTimeStamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Get versions of columns with the specified timestamp.
- setTimestamp(long) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Sets with the given timestamp.
- setTimestamp(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCell
-
Sets with the given timestamp.
- setTimestamp(long) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- setTimestamp(byte[]) - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- setTimestamp(byte[]) - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- setTimestamp(Cell, long) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Sets the given timestamp to the cell.
- setTimestamp(Cell, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Sets the given timestamp to the cell.
- setTimestamp(long) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- setTimestamp(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- setTimeToLive(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setTimeToLive(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setTimeToLive(int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setTimeToLive(String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setTimeToLive(int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setTimeToLive(String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setTimeUnit(TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter.RetryConfig
-
- setToNewRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Set the row when there is change in row
- setTotalUncompressedBytes(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setTrackMetrics(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.client.Append
-
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.client.Delete
-
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Set the TTL desired for the result of the mutation, in milliseconds.
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.client.Put
-
- setTTL(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- setTTL(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ScanOptions
-
- setType(Cell.Type) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setType(Cell.Type) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setType(byte) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setType(Cell.Type) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setType(byte) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setType(Cell.Type) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setUnassigned() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- setUnblockedFlushCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setUncaughtExceptionHandler(Thread.UncaughtExceptionHandler) - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- setUncompressedDataIndexSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setUncompressedStoreFileSize(Size) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellImporter
-
- setup(Mapper<ImmutableBytesWritable, Result, Import.CellWritableComparable, Cell>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.CellSortImporter
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueImporter
-
已过时。
- setup(Mapper<ImmutableBytesWritable, Result, Import.KeyValueWritableComparable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueSortImporter
-
已过时。
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IndexBuilder.Map
-
- setup(Reducer<ImmutableBytesWritable, Put, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- setup(Reducer<ImmutableBytesWritable, Text, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<LongWritable, Text, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<LongWritable, Text, ImmutableBytesWritable, Text>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<WALKey, WALEdit, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer.WALMapper
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- setup(RegionServerServices) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Setup controller for the given region server.
- setupClusterConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Setup our cluster connection if not already initialized.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- setupMasterlessConnection(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.client.ConnectionUtils
-
Setup the connection class, so that it will not depend on master being online.
- setupRegionReplicaReplication(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Create replication peer for replicating to region replicas if needed.
- setupSaslHandler(ChannelPipeline) - 类 中的方法org.apache.hadoop.hbase.security.NettyHBaseSaslRpcClient
-
- setupSetQuotaRequest(MasterProtos.SetQuotaRequest.Builder) - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettings
-
- setupSetQuotaRequest(MasterProtos.SetQuotaRequest.Builder) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
Called by toSetQuotaRequestProto()
the subclass should implement this method to set the specific SetQuotaRequest
properties.
- setupShortCircuitRead(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
Do our short circuit read setup.
- setupShortCircuitRead(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Do our short circuit read setup.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- setUsedHeapSize(Size) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setUserFilter(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaFilter
-
Set the user filter regex
- setUsernameConfKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setUserProviderForTesting(Configuration, Class<? extends UserProvider>) - 类 中的静态方法org.apache.hadoop.hbase.security.UserProvider
-
Set the
UserProvider in the given configuration that should be instantiated
- setUserQuota(String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setUserQuota(String, TableName, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setUserQuota(String, String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setValue(byte[]) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setValue(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.CellBuilder
-
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- setValue(Bytes, Bytes) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setValue(Bytes, Bytes) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setValue(Bytes, Bytes) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- setValue(byte[]) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setValue(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.ExtendedCellBuilder
-
- setValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setValue(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- setValue(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setter for storing metadata as a (key, value) pair in map
- setValue(Bytes, Bytes) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- setValue(String, String) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Setter for storing metadata as a (key, value) pair in map
- setValue(byte[]) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setValue(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.RawCellBuilder
-
- setValue(long) - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- setVersion(String) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setVersion(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersion(FileSystem, Path, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersion(FileSystem, Path, String, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersionNumber(int) - 类 中的方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- setVersions(int, int) - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
Set minimum and maximum versions to keep
- setVersions(int, int) - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
Set minimum and maximum versions to keep
- setVictimCache(BlockCache) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- setWalEdit(int, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Sets the walEdit for the operation(Mutation) at the specified position.
- setWalGroupId(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setWALPosition(ServerName, String, String, long, Map<String, Long>) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationQueueStorage
-
Set the current position for a specific WAL in a given queue for a given regionserver.
- setWALRootDir(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.CommonFSUtils
-
- setWatchIfNodeExists(ZKWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKUtil
-
Watch the specified znode, but only if exists.
- setWithPrefix(Configuration, String, Iterable<Map.Entry<String, String>>) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Sets all the entries in the provided Map<String, String> as properties in the
given Configuration.
- setWriteBufferPeriodicFlush(long) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Sets the maximum time before the buffer is automatically flushed checking once per second.
- setWriteBufferPeriodicFlush(long, long) - 接口 中的方法org.apache.hadoop.hbase.client.BufferedMutator
-
Sets the maximum time before the buffer is automatically flushed.
- setWriteBufferPeriodicFlush(long, long) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorImpl
-
- setWriteBufferPeriodicFlushTimeoutMs(long) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
Set the max timeout before the buffer is automatically flushed.
- setWriteBufferPeriodicFlushTimerTickMs(long) - 类 中的方法org.apache.hadoop.hbase.client.BufferedMutatorParams
-
Set the TimerTick how often the buffer timeout if checked.
- setWriteBufferSize(long) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncBufferedMutatorBuilder
-
Override the write buffer size specified by the provided
AsyncConnection's
Configuration instance, via the configuration key
hbase.client.write.buffer.
- setWriteEntry(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- setWriteRequestCount(long) - 类 中的方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- setWriteRpcTimeout(long, TimeUnit) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTableBuilder
-
Set timeout for each write(put, delete) rpc request.
- setWriteRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
已过时。
- setWriteRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.Table
-
- setWriteRpcTimeout(int) - 接口 中的方法org.apache.hadoop.hbase.client.TableBuilder
-
Set timeout for each write(put, delete) rpc request.
- setWriteRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.rest.client.RemoteHTable
-
已过时。
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
Creates a shallow copy of this KeyValue, reusing the data byte buffer.
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- shallowCopy() - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Create a new ByteRange that points at this range's byte[].
- shallowCopy() - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- shallowCopy() - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- shallowCopySubRange(int, int) - 类 中的方法org.apache.hadoop.hbase.util.AbstractPositionedByteRange
-
- shallowCopySubRange(int, int) - 接口 中的方法org.apache.hadoop.hbase.util.ByteRange
-
Create a new ByteRange that points at this range's byte[].
- shallowCopySubRange(int, int) - 接口 中的方法org.apache.hadoop.hbase.util.PositionedByteRange
-
- shallowCopySubRange(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleByteRange
-
- shallowCopySubRange(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
- shallowCopySubRange(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
- shallowCopySubRange(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
- SharedConnection - org.apache.hadoop.hbase中的类
-
Wraps a Connection to make it can't be closed or aborted.
- SharedConnection(Connection) - 类 的构造器org.apache.hadoop.hbase.SharedConnection
-
- shipped() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- shipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- shipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- shipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
Called after a batch of rows scanned (RPC) and set to be returned to client.
- shipped() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Shipper
-
Called after a batch of rows scanned and set to be returned to client.
- shipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- shipped() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- Shipper - org.apache.hadoop.hbase.regionserver中的接口
-
This interface denotes a scanner as one which can ship cells.
- ShipperListener - org.apache.hadoop.hbase.regionserver中的接口
-
Implementors of this interface are the ones who needs to do some action when the
Shipper.shipped() is called
- SHORT_HELP_OPTION - 类 中的静态变量org.apache.hadoop.hbase.util.AbstractHBaseTool
-
- ShortCircuitMasterConnection - org.apache.hadoop.hbase.client中的类
-
A short-circuit connection that can bypass the RPC layer (serialization, deserialization,
networking, etc..) when talking to a local master
- ShortCircuitMasterConnection(MasterProtos.MasterService.BlockingInterface) - 类 的构造器org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- shouldBypass() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContextImpl
-
- shouldCacheBlockOnRead(BlockType.BlockCategory) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Should we cache a block of a particular category?
- shouldCacheBloomsOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheCompressed(BlockType.BlockCategory) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheDataCompressed() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheDataOnRead() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns whether the DATA blocks of this HFile should be cached on read or not (we always
cache the meta blocks, the INDEX and BLOOM blocks).
- shouldCacheDataOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheIndexesOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCheckBulkLoads() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.DefaultViolationPolicyEnforcement
-
- shouldCheckBulkLoads() - 类 中的方法org.apache.hadoop.hbase.quotas.policies.MissingSnapshotViolationPolicyEnforcement
-
- shouldCheckBulkLoads() - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceViolationPolicyEnforcement
-
Returns whether thet caller should verify any bulk loads against this.
- shouldDropBehind - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- shouldDropBehindCompaction() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldEvictOnClose() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldFixVersionFile() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldFlush(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushAllLargeStoresPolicy
-
- shouldFlush(HStore) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- shouldFlushInMemory() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- shouldIgnorePreCheckPermission() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldIncludeMemStoreTS() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- shouldIncludeMemStoreTS() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- shouldLockOnCacheMiss(BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
If we make sure the block could not be cached, we will not acquire the lock
otherwise we will acquire lock
- shouldPerformMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- shouldPerformMajorCompaction() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Tests whether we should run a major compaction.
- shouldPrefetchOnOpen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldReadBlockFromCache(BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Return true if we may find this type of block in block cache.
- shouldReplaceExistingCacheBlock(BlockCache, BlockCacheKey, Cacheable) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
Because of the region splitting, it's possible that the split key locate in the middle of a
block.
- shouldReplayRecoveredEdits(HRegion) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns whether to replay the recovered edits to flush the results.
- shouldRerun() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldRetry() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
- shouldRetryCreate(RemoteException) - 类 中的静态方法org.apache.hadoop.hbase.io.asyncfs.FanOutOneBlockAsyncDFSOutputHelper
-
- shouldSeek(TimeRange, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- shouldSeek(TimeRange, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- shouldSidelineBigOverlaps() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.DisabledRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- shouldUseHBaseChecksum() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
- shouldUseScanner(Scan, HStore, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Allows to filter out scanners (both StoreFile and memstore) that we don't
want to use based on criteria such as Bloom filters and timestamp ranges.
- shouldUseScanner(Scan, HStore, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- shouldUseScanner(Scan, HStore, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
This functionality should be resolved in the higher level which is
MemStoreScanner, currently returns true as default.
- shouldUseScanner(Scan, HStore, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- shouldWriteBlock(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterWriter
-
- shouldWriteBlock(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Whether there is an inline block ready to be written.
- shouldWriteBlock(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
Determines whether there is a new block to be written out.
- SHUFFLE_MAPS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Specify if we have to shuffle the map tasks.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
shutdown the service.
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Shuts down the HBase cluster.
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Shuts down the HBase cluster.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection
-
- shutdown(RpcController, MasterProtos.ShutdownRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
Clean up the environment
- shutdown(E) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Shutdown the cache.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Shut down the mini HBase cluster
- shutdown() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Shutdown the cluster.
- shutdown(RpcController, MasterProtos.ShutdownRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.mob.MobFileCache
-
- shutdown - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.rest.client.Client
-
Shut down the client.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.util.compaction.MajorCompactor
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Called when cache is no longer needed so that it can perform cleanup operations
- shutdown(List<JVMClusterUtil.MasterThread>, List<JVMClusterUtil.RegionServerThread>) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- shutdown(Thread) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Shutdown passed thread using isAlive and join.
- shutdown(Thread, long) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Shutdown passed thread using isAlive and join.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Stop accepting new writes.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Tell the underlying WAL providers to shut down, but do not clean up underlying storage.
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
persist outstanding WALs to storage and stop accepting new appends.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- shutdownCluster() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- ShutdownHook - org.apache.hadoop.hbase.regionserver中的类
-
Manage regionserver shutdown hooks.
- ShutdownHook() - 类 的构造器org.apache.hadoop.hbase.regionserver.ShutdownHook
-
- ShutdownHookManager - org.apache.hadoop.hbase.util中的类
-
This class provides ShutdownHookManager shims for HBase to interact with the Hadoop 1.0.x and the
Hadoop 2.0+ series.
- ShutdownHookManager() - 类 的构造器org.apache.hadoop.hbase.util.ShutdownHookManager
-
- SimpleByteRange - org.apache.hadoop.hbase.util中的类
-
- SimpleByteRange() - 类 的构造器org.apache.hadoop.hbase.util.SimpleByteRange
-
- SimpleByteRange(int) - 类 的构造器org.apache.hadoop.hbase.util.SimpleByteRange
-
- SimpleByteRange(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.SimpleByteRange
-
Create a new ByteRange over the provided bytes.
- SimpleByteRange(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.SimpleByteRange
-
Create a new ByteRange over the provided bytes.
- simpleMergeOrFlatten(VersionedSegmentsList, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- SimpleMutableByteRange - org.apache.hadoop.hbase.util中的类
-
- SimpleMutableByteRange() - 类 的构造器org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
Create a new ByteRange lacking a backing array and with an
undefined viewport.
- SimpleMutableByteRange(int) - 类 的构造器org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
Create a new ByteRange over a new backing array of size
capacity.
- SimpleMutableByteRange(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
Create a new ByteRange over the provided bytes.
- SimpleMutableByteRange(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.SimpleMutableByteRange
-
Create a new ByteRange over the provided bytes.
- SimplePositionedByteRange - org.apache.hadoop.hbase.util中的类
-
- SimplePositionedByteRange() - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
Create a new PositionedByteRange lacking a backing array and with
an undefined viewport.
- SimplePositionedByteRange(int) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
Create a new PositionedByteRange over a new backing array of
size capacity.
- SimplePositionedByteRange(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
Create a new PositionedByteRange over the provided bytes.
- SimplePositionedByteRange(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedByteRange
-
Create a new PositionedByteRange over the provided bytes.
- SimplePositionedMutableByteRange - org.apache.hadoop.hbase.util中的类
-
- SimplePositionedMutableByteRange() - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Create a new PositionedByteRange lacking a backing array and with
an undefined viewport.
- SimplePositionedMutableByteRange(int) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Create a new PositionedByteRange over a new backing array of size
capacity.
- SimplePositionedMutableByteRange(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Create a new PositionedByteRange over the provided bytes.
- SimplePositionedMutableByteRange(byte[], int, int) - 类 的构造器org.apache.hadoop.hbase.util.SimplePositionedMutableByteRange
-
Create a new PositionedByteRange over the provided bytes.
- SimpleRpcScheduler - org.apache.hadoop.hbase.ipc中的类
-
The default scheduler.
- SimpleRpcScheduler(Configuration, int, int, int, PriorityFunction, Abortable, int) - 类 的构造器org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- SimpleRpcScheduler(Configuration, int, int, int, PriorityFunction, int) - 类 的构造器org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- SimpleRpcSchedulerFactory - org.apache.hadoop.hbase.regionserver中的类
-
- SimpleRpcSchedulerFactory() - 类 的构造器org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
- SimpleRpcServer - org.apache.hadoop.hbase.ipc中的类
-
The RPC server with native java NIO implementation deriving from Hadoop to
host protobuf described Services.
- SimpleRpcServer(Server, String, List<RpcServer.BlockingServiceAndInterface>, InetSocketAddress, Configuration, RpcScheduler, boolean) - 类 的构造器org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Constructs a server listening on the named port and address.
- SimpleTotalOrderPartitioner<VALUE> - org.apache.hadoop.hbase.mapreduce中的类
-
A partitioner that takes start and end keys and uses bigdecimal to figure
which reduce a key belongs to.
- SimpleTotalOrderPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- SINGLE_QUOTE - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for a single quote
- SingleByteBuff - org.apache.hadoop.hbase.nio中的类
-
An implementation of ByteBuff where a single BB backs the BBI.
- SingleByteBuff(ByteBuffer) - 类 的构造器org.apache.hadoop.hbase.nio.SingleByteBuff
-
- SingleColumnValueExcludeFilter - org.apache.hadoop.hbase.filter中的类
-
A
Filter that checks a single column value, but does not emit the
tested column.
- SingleColumnValueExcludeFilter(byte[], byte[], CompareFilter.CompareOp, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
已过时。
- SingleColumnValueExcludeFilter(byte[], byte[], CompareOperator, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
Constructor for binary compare of the value of a single column.
- SingleColumnValueExcludeFilter(byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- SingleColumnValueExcludeFilter(byte[], byte[], CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
Constructor for binary compare of the value of a single column.
- SingleColumnValueExcludeFilter(byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- SingleColumnValueExcludeFilter(byte[], byte[], CompareOperator, ByteArrayComparable, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
Constructor for protobuf deserialization only.
- SingleColumnValueFilter - org.apache.hadoop.hbase.filter中的类
-
This filter is used to filter cells based on value.
- SingleColumnValueFilter(byte[], byte[], CompareFilter.CompareOp, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- SingleColumnValueFilter(byte[], byte[], CompareOperator, byte[]) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Constructor for binary compare of the value of a single column.
- SingleColumnValueFilter(byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- SingleColumnValueFilter(byte[], byte[], CompareOperator, ByteArrayComparable) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Constructor for binary compare of the value of a single column.
- SingleColumnValueFilter(byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- SingleColumnValueFilter(byte[], byte[], CompareOperator, ByteArrayComparable, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
Constructor for protobuf deserialization only.
- SingleResponse - org.apache.hadoop.hbase.client中的类
-
Class for single action response
- SingleResponse() - 类 的构造器org.apache.hadoop.hbase.client.SingleResponse
-
- SingleResponse.Entry - org.apache.hadoop.hbase.client中的类
-
- SingletonCoprocessorService - org.apache.hadoop.hbase.coprocessor中的接口
-
- SingleWriteExampleCallable(Connection, TableName) - 类 的构造器org.apache.hadoop.hbase.client.example.MultiThreadedClientExample.SingleWriteExampleCallable
-
- SinkWriter() - 类 的构造器org.apache.hadoop.hbase.wal.WALSplitter.SinkWriter
-
- size() - 类 中的方法org.apache.hadoop.hbase.client.MultiAction
-
Get the total number of Actions
- size() - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- size() - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Number of KeyValues carried by this Mutation.
- size() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- size() - 接口 中的方法org.apache.hadoop.hbase.client.RowAccess
-
- size() - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- size() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- size() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- size() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the total size of the block cache, in bytes.
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.MemcachedBlockCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- size() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- size() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
Returns the size of the list even if some of the elements
might be null.
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- size - 类 中的变量org.apache.hadoop.hbase.regionserver.Chunk
-
Size of chunk in bytes
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- size() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- Size - org.apache.hadoop.hbase中的类
-
It is used to represent the size with different units.
- Size(double, Size.Unit) - 类 的构造器org.apache.hadoop.hbase.Size
-
- size() - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- size - 类 中的变量org.apache.hadoop.hbase.util.ConcatenatedLists
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.ConcatenatedLists
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.ObjectPool
-
Returns an estimated count of objects kept in the pool.
- size() - 接口 中的方法org.apache.hadoop.hbase.util.PoolMap.Pool
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- size(K) - 类 中的方法org.apache.hadoop.hbase.util.PoolMap
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- size() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- Size.Unit - org.apache.hadoop.hbase中的枚举
-
- SIZE_TO_SPLIT_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The size the stripe should achieve to be considered for splitting into multiple stripes.
- SIZE_VALUE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionSource
-
- SizeCachedKeyValue - org.apache.hadoop.hbase中的类
-
This class is an extension to KeyValue where rowLen and keyLen are cached.
- SizeCachedKeyValue(byte[], int, int, long) - 类 的构造器org.apache.hadoop.hbase.SizeCachedKeyValue
-
- SizeCachedNoTagsKeyValue - org.apache.hadoop.hbase中的类
-
This class is an extension to ContentSizeCachedKeyValue where there are no tags in Cell.
- SizeCachedNoTagsKeyValue(byte[], int, int, long) - 类 的构造器org.apache.hadoop.hbase.SizeCachedNoTagsKeyValue
-
- SizedCellScanner - org.apache.hadoop.hbase.io中的接口
-
A CellScanner that knows its size in memory in bytes.
- SizeMultiWriter(CellComparator, int, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- sizeOf(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.ClassSize
-
Calculate the memory consumption (in byte) of a byte array,
including the array header and the whole backing byte array.
- SIZEOF_BOOLEAN - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of boolean in bytes
- SIZEOF_BYTE - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of byte in bytes
- SIZEOF_CHAR - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of char in bytes
- SIZEOF_CHUNK_HEADER - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ChunkCreator
-
- SIZEOF_DOUBLE - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of double in bytes
- SIZEOF_FLOAT - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of float in bytes
- SIZEOF_INT - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of int in bytes
- SIZEOF_LONG - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of long in bytes
- SIZEOF_SHORT - 类 中的静态变量org.apache.hadoop.hbase.util.Bytes
-
Size of short in bytes
- sizeOfByteArray(int) - 类 中的静态方法org.apache.hadoop.hbase.util.ClassSize
-
Calculate the memory consumption (in byte) of a part of a byte array,
including the array header and the part of the backing byte array.
- SizeStripeFlushRequest(CellComparator, int, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.SizeStripeFlushRequest
-
- sizeToString(long) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- skip(long) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferInputStream
-
Skips n bytes of input from this input stream.
- skip(long) - 类 中的方法org.apache.hadoop.hbase.io.ByteBuffInputStream
-
Skips n bytes of input from this input stream.
- skip(int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Jumps the current position of this ByteBuff by specified length.
- skip(int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Jumps the current position of this MBB by specified length.
- skip(int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- skip(PositionedByteRange) - 接口 中的方法org.apache.hadoop.hbase.types.DataType
-
Skip src's position forward over one encoded value.
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.FixedLengthWrapper
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.OrderedBytesBase
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.PBCell
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawByte
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawBytes
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawDouble
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawFloat
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawInteger
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawLong
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawShort
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.RawString
-
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.Struct
-
- skip() - 类 中的方法org.apache.hadoop.hbase.types.StructIterator
-
Bypass the next encoded value.
- skip(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
Skip src's position forward over one encoded value.
- skip(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Increment position in buffer.
- skip(PositionedByteRange) - 类 中的静态方法org.apache.hadoop.hbase.util.OrderedBytes
-
Skip buff's position forward over one encoded value.
- SKIP_ARRAY - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
SKIP Array
- SKIP_BUFFER - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
- SKIP_EMPTY_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- SKIP_LINES_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- SKIP_RESET_SEQ_ID - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Key for skipping resetting sequence id in metadata.
- skipControl(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- skipControl(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- skipControl(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
Check whether to skip control given delta size and control size
- SkipFilter - org.apache.hadoop.hbase.filter中的类
-
A wrapper filter that filters an entire row if any of the Cell checks do
not pass.
- SkipFilter(Filter) - 类 的构造器org.apache.hadoop.hbase.filter.SkipFilter
-
- skipKVsNewerThanReadpoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- skippedEdits - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- skipSleepCycle() - 类 中的方法org.apache.hadoop.hbase.util.Sleeper
-
If currently asleep, stops sleeping; if not asleep, will skip the next
sleep cycle.
- skipStoreFileRangeCheck(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- sleep(long, int) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- sleep(long, int) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- sleep(long, int) - 接口 中的方法org.apache.hadoop.hbase.client.RetryingCallable
-
- sleep() - 类 中的方法org.apache.hadoop.hbase.util.Sleeper
-
Sleep for period.
- sleep(long) - 类 中的方法org.apache.hadoop.hbase.util.Sleeper
-
Sleep for period adjusted by passed startTime
- sleep(long) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
If interrupted, just prints out the interrupt on STDOUT, resets interrupt and returns
- sleeper - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- Sleeper - org.apache.hadoop.hbase.util中的类
-
Sleeper for current thread.
- Sleeper(int, Stoppable) - 类 的构造器org.apache.hadoop.hbase.util.Sleeper
-
- sleepUntilNextRetry() - 类 中的方法org.apache.hadoop.hbase.util.RetryCounter
-
Sleep for a back off time as supplied by the backoff policy, and increases the attempts
- sleepWithoutInterrupt(long) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
Sleeps for the given amount of time even if interrupted.
- slice() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Returns an ByteBuff which is a sliced version of this ByteBuff.
- slice() - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Returns an MBB which is a sliced version of this MBB.
- slice() - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- SLOW_APPEND_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- SLOW_APPEND_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- SLOW_APPEND_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_APPEND_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_DELETE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_DELETE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_GET_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_GET_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_INCREMENT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_INCREMENT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_PUT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SLOW_PUT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- slowSyncNs - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- SMALL_COMPACTION_QUEUE_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SMALL_COMPACTION_QUEUE_LENGTH_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SMALL_COMPACTION_THREADS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- SMALL_COMPACTION_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- snapshot(String, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Take a snapshot for the given table.
- snapshot(byte[], TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create a timestamp consistent snapshot for the given table.
- snapshot(String, TableName, SnapshotType) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Create typed snapshot of the table.
- snapshot(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Take a snapshot and wait for the server to complete that snapshot (blocking).
- snapshot(String, TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Take a snapshot for the given table.
- snapshot(String, TableName, SnapshotType) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Create typed snapshot of the table.
- snapshot(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Take a snapshot and wait for the server to complete that snapshot asynchronously.
- snapshot(String, TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- snapshot(byte[], TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- snapshot(String, TableName, SnapshotType) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- snapshot(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- snapshot(RpcController, MasterProtos.SnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- snapshot(RpcController, MasterProtos.SnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Triggers an asynchronous attempt to take a snapshot.
- snapshot - 类 中的变量org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- snapshot() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
Push the current active memstore segment into the pipeline
and create a snapshot of the tail of current compaction pipeline
Snapshot must be cleared by call to
AbstractMemStore.clearSnapshot(long).
- snapshot() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Creates a snapshot of the current memstore.
- snapshot() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Creates a snapshot of the current memstore.
- SNAPSHOT_CLONE_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_CLONE_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Name of the directory to store all snapshots.
- SNAPSHOT_IN_PROGRESS - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
This tag will be created in in-progess snapshots
- SNAPSHOT_INPUTFORMAT_LOCALITY_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- SNAPSHOT_INPUTFORMAT_LOCALITY_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
Whether to calculate the block location for splits.
- SNAPSHOT_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Version of the fs layout for a snapshot.
- SNAPSHOT_MANIFEST_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifestV2
-
- SNAPSHOT_MANIFEST_SIZE_LIMIT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- SNAPSHOT_NOTIFIER_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifierFactory
-
- SNAPSHOT_NOTIFIER_KEY - 类 中的静态变量org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifierFactory
-
- SNAPSHOT_OBSERVER_CHORE_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_OBSERVER_CHORE_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_OBSERVER_FETCH_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_OBSERVER_FETCH_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_OBSERVER_SIZE_COMPUTATION_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_OBSERVER_SIZE_COMPUTATION_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- SNAPSHOT_RESTORE_FAILSAFE_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- SNAPSHOT_RESTORE_TAKE_FAILSAFE_SNAPSHOT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- SNAPSHOT_RESTORE_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_RESTORE_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsSnapshotSource
-
- SNAPSHOT_TIMEOUT_MILLIS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- SNAPSHOT_TIMEOUT_MILLIS_KEY - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- SNAPSHOT_TMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Temporary directory under the snapshot directory to store in-progress snapshots
- SNAPSHOT_TO_SCANS_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- snapshotAsync(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Take a snapshot without waiting for the server to complete that snapshot (asynchronous) Only a
single snapshot should be taken at a time, or results may be undefined.
- snapshotAsync(SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- SnapshotCreationException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Thrown when a snapshot could not be created due to a server-side error when
taking the snapshot.
- SnapshotCreationException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotCreationException
-
Used internally by the RPC engine to pass the exception back to the client.
- SnapshotCreationException(String, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotCreationException
-
Failure to create the specified snapshot
- SnapshotCreationException(String, Throwable, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotCreationException
-
Failure to create the specified snapshot due to an external cause
- SnapshotDescription - org.apache.hadoop.hbase.client中的类
-
The POJO equivalent of HBaseProtos.SnapshotDescription
- SnapshotDescription(String) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, String) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, TableName) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, String, SnapshotType) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, TableName, SnapshotType) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, String, SnapshotType, String) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, TableName, SnapshotType, String) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, String, SnapshotType, String, long, int) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescription(String, TableName, SnapshotType, String, long, int) - 类 的构造器org.apache.hadoop.hbase.client.SnapshotDescription
-
- SnapshotDescriptionUtils - org.apache.hadoop.hbase.snapshot中的类
-
Utility class to help manage SnapshotDesriptions.
- SnapshotDescriptionUtils.CompletedSnaphotDirectoriesFilter - org.apache.hadoop.hbase.snapshot中的类
-
Filter that only accepts completed snapshot directories
- SnapshotDoesNotExistException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Thrown when the server is looking for a snapshot but can't find the snapshot on the filesystem
- SnapshotDoesNotExistException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotDoesNotExistException
-
- SnapshotDoesNotExistException(SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotDoesNotExistException
-
- SnapshotExistsException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Thrown when a snapshot exists but should not
- SnapshotExistsException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotExistsException
-
- SnapshotExistsException(String, SnapshotDescription) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.SnapshotExistsException
-
Failure due to the snapshot already existing
- snapshotId - 类 中的变量org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- SnapshotInfo - org.apache.hadoop.hbase.snapshot中的类
-
Tool for dumping snapshot information.
- SnapshotInfo() - 类 的构造器org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
- SnapshotInfo.SnapshotStats - org.apache.hadoop.hbase.snapshot中的类
-
Statistics about the snapshot
How many store files and logs are in the archive
How many store files and logs are shared with the table
Total store files and logs size and shared amount
- SNAPSHOTINFO_FILE - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
The file contains the snapshot basic information and it is under the directory of a snapshot.
- SnapshotManifest - org.apache.hadoop.hbase.snapshot中的类
-
Utility class to help read/write the Snapshot Manifest.
- SnapshotManifestV1 - org.apache.hadoop.hbase.snapshot中的类
-
DO NOT USE DIRECTLY.
- SnapshotManifestV2 - org.apache.hadoop.hbase.snapshot中的类
-
DO NOT USE DIRECTLY.
- SnapshotOfRegionAssignmentFromMeta - org.apache.hadoop.hbase.master中的类
-
Used internally for reading meta and constructing datastructures that are
then queried, for things like regions to regionservers, table to regions, etc.
- SnapshotOfRegionAssignmentFromMeta(Connection) - 类 的构造器org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- SnapshotOfRegionAssignmentFromMeta(Connection, Set<TableName>, boolean) - 类 的构造器org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- SnapshotQuotaObserverChore - org.apache.hadoop.hbase.quotas中的类
-
A Master-invoked Chore that computes the size of each snapshot which was created from
a table which has a space quota.
- SnapshotQuotaObserverChore(HMaster, MetricsMaster) - 类 的构造器org.apache.hadoop.hbase.quotas.SnapshotQuotaObserverChore
-
- SnapshotReferenceUtil - org.apache.hadoop.hbase.snapshot中的类
-
Utility methods for interacting with the snapshot referenced files.
- SnapshotReferenceUtil.SnapshotVisitor - org.apache.hadoop.hbase.snapshot中的接口
-
- SnapshotReferenceUtil.StoreFileVisitor - org.apache.hadoop.hbase.snapshot中的接口
-
- snapshotRegionSizes() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- SnapshotSegmentScanner - org.apache.hadoop.hbase.regionserver中的类
-
A basic SegmentScanner used against an ImmutableScanner snapshot
Used flushing where we do a single pass, no reverse scanning or
inserts happening.
- SnapshotSegmentScanner(ImmutableSegment) - 类 的构造器org.apache.hadoop.hbase.regionserver.SnapshotSegmentScanner
-
- SnapshotSentinel - org.apache.hadoop.hbase.master中的接口
-
Watch the current snapshot under process
- SnapshotType - org.apache.hadoop.hbase.client中的枚举
-
POJO representing the snapshot type
- SOCKET_RETRY_WAIT_MS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The delay when re-trying a socket operation in a loop (HBASE-4712)
- SOCKET_TIMEOUT_CONNECT - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- SOCKET_TIMEOUT_READ - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
How long we wait when we wait for an answer.
- SOCKET_TIMEOUT_WRITE - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- socketFactory - 类 中的变量org.apache.hadoop.hbase.ipc.BlockingRpcClient
-
- socketSendBufferSize - 类 中的变量org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
- SoftObjectPool<K,V> - org.apache.hadoop.hbase.util中的类
-
A SoftReference based shared object pool.
- SoftObjectPool(ObjectPool.ObjectFactory<K, V>) - 类 的构造器org.apache.hadoop.hbase.util.SoftObjectPool
-
- SoftObjectPool(ObjectPool.ObjectFactory<K, V>, int) - 类 的构造器org.apache.hadoop.hbase.util.SoftObjectPool
-
- SoftObjectPool(ObjectPool.ObjectFactory<K, V>, int, int) - 类 的构造器org.apache.hadoop.hbase.util.SoftObjectPool
-
- solve() - 类 中的方法org.apache.hadoop.hbase.util.MunkresAssignment
-
Get the optimal assignments.
- sortAndMerge(List<MultiRowRangeFilter.RowRange>) - 类 中的静态方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
sort the ranges and if the ranges with overlap, then merge them.
- SortedList<E> - org.apache.hadoop.hbase.util中的类
-
Simple sorted list implementation that uses
ArrayList as
the underlying collection so we can support RandomAccess.
- SortedList(Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedList
-
Constructs an empty list with the default initial capacity that will be
sorted using the given comparator.
- SortedList(Collection<? extends E>, Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedList
-
Constructs a list containing the elements of the given collection, in the
order returned by the collection's iterator, that will be sorted with the
given comparator.
- sortedPrefixes - 类 中的变量org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- sourceScanner - 类 中的变量org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Source scanner that is tracking KV count; may be null if source is not StoreScanner
- SpaceLimitingException - org.apache.hadoop.hbase.quotas中的异常错误
-
An Exception that is thrown when a space quota is in violation.
- SpaceLimitingException(String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.SpaceLimitingException
-
- SpaceLimitingException(String, String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.SpaceLimitingException
-
- SpaceLimitingException(String, String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.SpaceLimitingException
-
- SpaceQuotaRefresherChore - org.apache.hadoop.hbase.quotas中的类
-
- SpaceQuotaRefresherChore(RegionServerSpaceQuotaManager, Connection) - 类 的构造器org.apache.hadoop.hbase.quotas.SpaceQuotaRefresherChore
-
- SpaceQuotaSnapshot - org.apache.hadoop.hbase.quotas中的类
-
A point-in-time view of a space quota on a table.
- SpaceQuotaSnapshot(SpaceQuotaSnapshot.SpaceQuotaStatus, long, long) - 类 的构造器org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
- SpaceQuotaSnapshot.SpaceQuotaStatus - org.apache.hadoop.hbase.quotas中的类
-
Encapsulates the state of a quota on a table.
- SpaceQuotaSnapshotNotifier - org.apache.hadoop.hbase.quotas中的接口
-
An interface which abstract away the action taken to enable or disable
a space quota violation policy across the HBase cluster.
- SpaceQuotaSnapshotNotifierFactory - org.apache.hadoop.hbase.quotas中的类
-
- SpaceQuotaStatus(SpaceViolationPolicy) - 类 的构造器org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
Constructs a SpaceQuotaSnapshot which is in violation of the provided policy.
- SpaceViolationPolicy - org.apache.hadoop.hbase.quotas中的枚举
-
Enumeration that represents the action HBase will take when a space quota is violated.
- SpaceViolationPolicyEnforcement - org.apache.hadoop.hbase.quotas中的接口
-
- SpaceViolationPolicyEnforcementFactory - org.apache.hadoop.hbase.quotas中的类
-
- SPARK - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
- SPECIFIC_WRITE_THREAD - 接口 中的静态变量org.apache.hadoop.hbase.ipc.RpcClient
-
- split(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
+ Split a table.
- split(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Split a table.
- split(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Split a table.
- split(TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Split a table.
- split(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- split(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- split(byte[], byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Split passed range.
- split(byte[], byte[], boolean, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Split passed range.
- split(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(byte[], byte[], int, boolean) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Split a pre-existing region into 2 regions.
- split(int) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Split an entire table.
- split(byte[], byte[], int, boolean) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Some MapReduce jobs may want to run multiple mappers per region,
this is intended for such usecase.
- split(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(byte[], byte[], int, boolean) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(Path, Path, Path, FileSystem, Configuration, WALFactory) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
- split2(BigInteger, BigInteger) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Divide 2 numbers in half (for split algorithm)
- SPLIT_ALGO - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
For MapReduce jobs running multiple mappers per region, determines
what split algorithm we should be using to find split points for scanners.
- SPLIT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_LOGDIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Used to construct the name of the splitlog directory for a region server
- SPLIT_METRIC_PREFIX - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsAssignmentManagerSource
-
- SPLIT_PARTS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The target count of new stripes to produce when splitting a stripe.
- SPLIT_PLAN_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- SPLIT_PLAN_COUNT_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterSource
-
- SPLIT_POLICY - 类 中的静态变量org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- SPLIT_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- SPLIT_QUEUE_LENGTH - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_QUEUE_LENGTH_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_REQUEST_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_REQUEST_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- SPLIT_SIZE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- SPLIT_SKIP_ERRORS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.wal.WALSplitter
-
By default we retry errors in splitting, rather than skipping.
- SPLIT_SUCCESS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_SUCCESS_KEY - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- SPLIT_THREADS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- SPLIT_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplit
-
- SPLIT_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- SPLIT_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterFileSystemSource
-
- SPLIT_WRITER_CREATION_BOUNDED - 类 中的静态变量org.apache.hadoop.hbase.wal.WALSplitter
-
- SPLITA_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The lower-half split region column qualifier
- SPLITB_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The upper-half split region column qualifier
- splitCell - 类 中的变量org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- splitKerberosName(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SaslUtil
-
Splitting fully qualified Kerberos name into parts
- splitkey - 类 中的变量org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- splitLog(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- splitLog(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- splitLog(Set<ServerName>, PathFilter) - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
This method is the base split method that splits WAL files matching a filter.
- SplitLogCounters - org.apache.hadoop.hbase中的类
-
Counters kept by the distributed WAL split log process.
- SplitLogCounters() - 类 的构造器org.apache.hadoop.hbase.SplitLogCounters
-
- splitLogDistributed(Path) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- splitLogDistributed(List<Path>) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
The caller will block until all the log files of the given region server have been processed -
successfully split or an error is encountered - by an available worker region server.
- splitLogDistributed(Set<ServerName>, List<Path>, PathFilter) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
The caller will block until all the hbase:meta log files of the given region server have been
processed - successfully split or an error is encountered - by an available worker region
server.
- splitLogFile(Path, FileStatus, FileSystem, Configuration, CancelableProgressable, LastSequenceId, SplitLogWorkerCoordination, WALFactory) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Splits a WAL file into region's recovered-edits directory.
- SplitLogManager - org.apache.hadoop.hbase.master中的类
-
Distributes the task of log splitting to the available region servers.
- SplitLogManager(MasterServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager
-
Its OK to construct this object even when region-servers are not online.
- SplitLogManager.ResubmitDirective - org.apache.hadoop.hbase.master中的枚举
-
- SplitLogManager.Task - org.apache.hadoop.hbase.master中的类
-
in memory state of an active task.
- SplitLogManager.TaskBatch - org.apache.hadoop.hbase.master中的类
-
Keeps track of the batch of tasks submitted together by a caller in splitLogDistributed().
- SplitLogManager.TerminationStatus - org.apache.hadoop.hbase.master中的枚举
-
- SplitLogManagerCoordination - org.apache.hadoop.hbase.coordination中的接口
-
Coordination for SplitLogManager.
- splitLogManagerCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- SplitLogManagerCoordination.SplitLogManagerDetails - org.apache.hadoop.hbase.coordination中的类
-
Detail class that shares data between coordination and split log manager
- SplitLogManagerDetails(ConcurrentMap<String, SplitLogManager.Task>, MasterServices, Set<String>) - 类 的构造器org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- SplitLogTask - org.apache.hadoop.hbase中的类
-
State of a WAL log split during distributed splitting.
- SplitLogTask.Done - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Err - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Owned - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Resigned - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Unassigned - org.apache.hadoop.hbase中的类
-
- SplitLogWorker - org.apache.hadoop.hbase.regionserver中的类
-
This worker is spawned in every regionserver, including master.
- SplitLogWorker(Server, Configuration, RegionServerServices, SplitLogWorker.TaskExecutor) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- SplitLogWorker(Server, Configuration, RegionServerServices, LastSequenceId, WALFactory) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- SplitLogWorker.TaskExecutor - org.apache.hadoop.hbase.regionserver中的接口
-
Objects implementing this interface actually do the task that has been
acquired by a
SplitLogWorker.
- SplitLogWorker.TaskExecutor.Status - org.apache.hadoop.hbase.regionserver中的枚举
-
- SplitLogWorkerCoordination - org.apache.hadoop.hbase.coordination中的接口
-
- splitLogWorkerCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- SplitLogWorkerCoordination.SplitTaskDetails - org.apache.hadoop.hbase.coordination中的接口
-
Interface for log-split tasks Used to carry implementation details in encapsulated way through
Handlers to the coordination API.
- splitLogZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- splitMetaLog(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
Specialized method to handle the splitting for meta WAL
- splitMetaLog(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
Specialized method to handle the splitting for meta WAL
- SplitOrMergeTracker - org.apache.hadoop.hbase.master中的类
-
Tracks the switch of split and merge states in ZK
- SplitOrMergeTracker(ZKWatcher, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.master.SplitOrMergeTracker
-
- splitRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- splitRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- splitRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Split an individual region.
- splitRegion(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Split an individual region.
- splitRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- splitRegion(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- splitRegion(RpcController, MasterProtos.SplitTableRegionRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- splitRegion(RegionInfo, byte[], long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- splitRegion(RpcController, MasterProtos.SplitTableRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- splitRegion(RegionInfo, byte[], long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Split a region.
- splitRegion(Connection, RegionInfo, long, RegionInfo, RegionInfo, ServerName, int) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Splits the region into two in an atomic operation.
- splitRegionAsync(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Split an individual region.
- splitRegionAsync(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- splitRegionSync(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Split one region.
- splitRegionSync(byte[], byte[], long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
Split one region.
- splits - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- splitStoreFile(RegionInfo, String, HStoreFile, byte[], boolean, RegionSplitPolicy) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Write out a split reference.
- splitSwitch(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Turn the split switch on or off.
- splitSwitch(boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Turn the Split switch on or off.
- splitSwitch(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- SPLITTING_EXT - 类 中的静态变量org.apache.hadoop.hbase.wal.AbstractFSWALProvider
-
File Extension used while splitting an WAL into regions (HBASE-2312)
- SPNEGO_FILTER - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- src - 类 中的变量org.apache.hadoop.hbase.types.StructIterator
-
- srcChecksum - 类 中的静态变量org.apache.hadoop.hbase.Version
-
- SslRMIClientSocketFactorySecure - org.apache.hadoop.hbase中的类
-
Avoid SSL V3.0 "Poodle" Vulnerability - CVE-2014-3566
- SslRMIClientSocketFactorySecure() - 类 的构造器org.apache.hadoop.hbase.SslRMIClientSocketFactorySecure
-
- SslRMIServerSocketFactorySecure - org.apache.hadoop.hbase中的类
-
Avoid SSL V3.0 "Poodle" Vulnerability - CVE-2014-3566
- SslRMIServerSocketFactorySecure() - 类 的构造器org.apache.hadoop.hbase.SslRMIServerSocketFactorySecure
-
- StackServlet() - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.StackServlet
-
- staleRefQueue - 类 中的变量org.apache.hadoop.hbase.util.ObjectPool
-
- stampSequenceIdAndPublishToRingBuffer(RegionInfo, WALKeyImpl, WALEdit, boolean, RingBuffer<RingBufferTruck>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- stampSet - 类 中的变量org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- standardizeZKQuorumServerString(String, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Standardize the ZK quorum string: make it a "server:clientport" list, separated by ','
- start() - 类 中的方法org.apache.hadoop.hbase.client.example.HttpProxyExample
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start(CoprocessorEnvironment) - 接口 中的方法org.apache.hadoop.hbase.Coprocessor
-
- start() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Start a timer to fail a process if it takes longer than the expected time to complete.
- start() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Start the server.
- start() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- start(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Prepares for request serving.
- start() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Starts the service.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
已过时。
- start() - 类 中的方法org.apache.hadoop.hbase.master.DrainingServerTracker
-
Starts the tracking of draining RegionServers.
- start(Set<ServerName>, Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.RegionServerTracker
-
Starts the tracking of online RegionServers.
- start() - 类 中的方法org.apache.hadoop.hbase.master.SplitOrMergeTracker
-
- start() - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.master.TableStateManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- start() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterSpaceQuotaObserver
-
- start() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- start(RpcScheduler) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- start(ChoreService) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
----------------------------------------------------------------------
The request to dispatch the compaction asynchronous task.
- start() - 类 中的方法org.apache.hadoop.hbase.regionserver.SecureBulkLoadManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
start the SplitLogWorker thread
- start(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- start(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- start(Map<byte[], List<Cell>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- start(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Start the throughput controller.
- start() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- start() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Initiates service startup and returns immediately.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- start() - 接口 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfoManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.util.HasThread
-
- start() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- start() - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
Starts the tracking of whether master is in Maintenance Mode.
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKLeaderManager
-
已过时。
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
Starts the tracking of the node in ZooKeeper.
- START_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 接口 中的方法org.apache.hadoop.hbase.io.encoding.DataBlockEncoder
-
Starts encoding for a block of KeyValues.
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.encoding.RowIndexCodecV1
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
Starts encoding for a block of KeyValues.
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- startCacheFlush(byte[], Set<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- startCacheFlush(byte[], Map<byte[], Long>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- startCacheFlush(byte[], Set<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
WAL keeps track of the sequence numbers that are as yet not flushed im memstores
in order to be able to do accounting to figure which WALs can be let go.
- startCacheFlush(byte[], Map<byte[], Long>) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- startCancel() - 类 中的方法org.apache.hadoop.hbase.client.ClientCoprocessorRpcController
-
- startCancel() - 类 中的方法org.apache.hadoop.hbase.ipc.DelegatingHBaseRpcController
-
- startCancel() - 类 中的方法org.apache.hadoop.hbase.ipc.HBaseRpcControllerImpl
-
- startCancel() - 类 中的方法org.apache.hadoop.hbase.ipc.ServerRpcController
-
- startcode - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
This servers startcode.
- STARTCODE_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The startcode column qualifier
- STARTCODE_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The startcode column qualifier
- startConnectorServer(int, int) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- startHandlers(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- startHandlers(String, int, List<BlockingQueue<CallRunner>>, int, int, int, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Start up our handlers.
- startHandlers(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- startKey - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Key to seek to in memstore and StoreFiles
- startOperation(long, long, Stoppable) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Starts the operation if operation with such nonce has not already succeeded.
- startRegionOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- startRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- startRegionOperation() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This method needs to be called before any public call that reads or
modifies data.
- startRegionOperation(Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This method needs to be called before any public call that reads or
modifies data.
- startReplayingFromWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
This message intends to inform the MemStore that next coming updates
are going to be part of the replaying edits from WAL
- startReplayingFromWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This message intends to inform the MemStore that next coming updates
are going to be part of the replaying edits from WAL
- startReplayingFromWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
This message intends to inform the MemStore that next coming updates
are going to be part of the replaying edits from WAL
- startReplicationService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Start replication services.
- startsWith(byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Return true if the byte array on the right is a prefix of the byte
array on the left.
- startup() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseEnvironment
-
Initialize the environment
- startup() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Start the cluster.
- startup(List<JVMClusterUtil.MasterThread>, List<JVMClusterUtil.RegionServerThread>) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
Start the cluster.
- startup(File) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- startup(File, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- startWriterThreads() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
Start the threads that will pump data from the entryBuffers to the output files.
- state - 枚举 中的变量org.apache.hadoop.hbase.security.SaslStatus
-
- STATE_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- STATE_QUALIFIER_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The state column qualifier
- STATIC_BLOOM_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STATIC_BLOOM_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STATIC_INDEX_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STATIC_INDEX_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- StaticUserFilter() - 类 的构造器org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- StaticUserWebFilter - org.apache.hadoop.hbase.http.lib中的类
-
Provides a servlet filter that pretends to authenticate a fake user (Dr.Who)
so that the web UI is usable for a secure cluster without authentication.
- StaticUserWebFilter() - 类 的构造器org.apache.hadoop.hbase.http.lib.StaticUserWebFilter
-
- StaticUserWebFilter.StaticUserFilter - org.apache.hadoop.hbase.http.lib中的类
-
- StatisticTrackable - org.apache.hadoop.hbase.client中的接口
-
Parent interface for an object to get updates about per-region statistics.
- STATS_RECORD_SEP - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterUtil
-
Record separator for the Bloom filter statistics human-readable string
- status - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- STATUS_MULTICAST_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
IP to use for the multicast status messages between the master and the clients.
- STATUS_MULTICAST_BIND_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The address to use for binding the local socket for receiving multicast.
- STATUS_MULTICAST_NI_NAME - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The network interface name to use for the multicast messages.
- STATUS_MULTICAST_PORT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The port to use for the multicast messages.
- STATUS_MULTICAST_PUBLISHER_BIND_ADDRESS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The address to use for binding the local socket for sending multicast.
- STATUS_PUBLISH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
The minimum time between two status messages, in milliseconds.
- STATUS_PUBLISHED - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Setting to activate, or not, the publication of the status by the master.
- STATUS_PUBLISHED_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- STATUS_PUBLISHER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
The implementation class used to publish the status.
- StealJobQueue<T> - org.apache.hadoop.hbase.util中的类
-
This queue allows a ThreadPoolExecutor to steal jobs from another ThreadPoolExecutor.
- StealJobQueue(Comparator<? super T>) - 类 的构造器org.apache.hadoop.hbase.util.StealJobQueue
-
- StealJobQueue(int, int, Comparator<? super T>) - 类 的构造器org.apache.hadoop.hbase.util.StealJobQueue
-
- stepDownAsLeader() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKLeaderManager
-
已过时。
Removes the leader znode, if it is currently claimed by this instance.
- SteppingSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
- SteppingSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.SteppingSplitPolicy
-
- stop() - 类 中的方法org.apache.hadoop.hbase.client.example.HttpProxyExample
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- stop(CoprocessorEnvironment) - 接口 中的方法org.apache.hadoop.hbase.Coprocessor
-
- stop() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
stop the server
- stop() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.NettyRpcServer
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Stops serving new requests.
- stop() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcServer
-
Stops the service.
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.ActiveMasterManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.MasterWalManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.RegionServerTracker
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Stop the ServerManager.
- stop() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- stop() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerRpcQuotaManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerSpaceQuotaManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- stop(String, boolean, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Stops the regionserver.
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
----------------------------------------------------------------------
The request to cancel the compaction asynchronous task
The compaction may still happen if the request was sent too late
Non-blocking request
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.SecureBulkLoadManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
stop the SplitLogWorker thread
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- stop() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- stop() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
If the service is starting or running, this initiates service shutdown and returns immediately.
- stop() - 类 中的静态方法org.apache.hadoop.hbase.rest.RESTServlet
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupAdminEndpoint
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupBasedLoadBalancer
-
- stop(String) - 接口 中的方法org.apache.hadoop.hbase.Stoppable
-
Stop this service.
- stop() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MetaTableLocator
-
Stop working.
- stop() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
- stopConnectorServer() - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- stopMaster() - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Shuts down the current HBase master only.
- stopMaster() - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Shuts down the current HBase master only.
- stopMaster() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- stopMaster(RpcController, MasterProtos.StopMasterRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- stopMaster() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- stopMaster(RpcController, MasterProtos.StopMasterRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- Stoppable - org.apache.hadoop.hbase中的接口
-
Implementers are Stoppable.
- StoppedRpcClientException - org.apache.hadoop.hbase.ipc中的异常错误
-
- StoppedRpcClientException() - 异常错误 的构造器org.apache.hadoop.hbase.ipc.StoppedRpcClientException
-
- StoppedRpcClientException(String) - 异常错误 的构造器org.apache.hadoop.hbase.ipc.StoppedRpcClientException
-
- stopProcessingTasks() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
called when Coordination should stop processing tasks and exit
- stopProcessingTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- stopRegionServer(String) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Stop the designated regionserver.
- stopRegionServer(ServerName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Stop the designated regionserver.
- stopRegionServer(String) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- stopReplayingFromWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
This message intends to inform the MemStore that the replaying edits from WAL
are done
- stopReplayingFromWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This message intends to inform the MemStore that the replaying edits from WAL
are done
- stopReplayingFromWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
This message intends to inform the MemStore that the replaying edits from WAL
are done
- stopReplicationService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Stops replication service.
- stopRequested - 类 中的变量org.apache.hadoop.hbase.regionserver.Leases
-
- stopRow - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- stopServer(RpcController, AdminProtos.StopServerRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Stop the region server.
- stopServiceThreads() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- stopServiceThreads() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Wait on all threads to finish.
- stopTask() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
If the worker is doing a task i.e. splitting a log file then stop the task.
- STORAGE_POLICY - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- STORAGE_POLICY - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- STORAGE_POLICY_PROPERTY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- STORAGE_POLICY_PROPERTY_CF_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- StorageClusterStatusResource - org.apache.hadoop.hbase.rest中的类
-
- StorageClusterStatusResource() - 类 的构造器org.apache.hadoop.hbase.rest.StorageClusterStatusResource
-
Constructor
- StorageClusterVersionResource - org.apache.hadoop.hbase.rest中的类
-
- StorageClusterVersionResource() - 类 的构造器org.apache.hadoop.hbase.rest.StorageClusterVersionResource
-
Constructor
- store - 类 中的变量org.apache.hadoop.hbase.io.crypto.KeyStoreKeyProvider
-
- Store - org.apache.hadoop.hbase.regionserver中的接口
-
Interface for objects that hold a column family in a Region.
- store - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- STORE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STORE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STORE_ENGINE_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
The name of the configuration parameter that specifies the class of
a store engine that is used to manage and compact HBase store files.
- STORE_FILE_READER_NO_READAHEAD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
- STORE_FILE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- STORE_FILE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- STORE_SERVICES - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
- StoreConfigInformation - org.apache.hadoop.hbase.regionserver中的接口
-
A more restricted interface for HStore.
- StoreEngine<SF extends org.apache.hadoop.hbase.regionserver.StoreFlusher,CP extends org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy,C extends org.apache.hadoop.hbase.regionserver.compactions.Compactor,SFM extends StoreFileManager> - org.apache.hadoop.hbase.regionserver中的类
-
StoreEngine is a factory that can create the objects necessary for HStore to operate.
- StoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreEngine
-
- StoreFile - org.apache.hadoop.hbase.regionserver中的接口
-
An interface to describe a store data file.
- storeFile(RegionInfo, String, SnapshotProtos.SnapshotRegionManifest.StoreFile) - 接口 中的方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil.StoreFileVisitor
-
- storeFile(String, String, String) - 接口 中的方法org.apache.hadoop.hbase.util.FSVisitor.StoreFileVisitor
-
- STOREFILE_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STOREFILE_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STOREFILE_INDEX_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STOREFILE_INDEX_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STOREFILE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- STOREFILE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- StoreFileInfo - org.apache.hadoop.hbase.regionserver中的类
-
Describe a StoreFile (hfile, reference, link)
- StoreFileInfo(Configuration, FileSystem, Path) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info
- StoreFileInfo(Configuration, FileSystem, FileStatus) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info
- StoreFileInfo(Configuration, FileSystem, FileStatus, HFileLink) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info from an HFileLink
- StoreFileInfo(Configuration, FileSystem, FileStatus, Reference) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info from an HFileLink
- StoreFileInfo(Configuration, FileSystem, FileStatus, Reference, HFileLink) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info from an HFileLink and a Reference
- storeFileManager - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- StoreFileManager - org.apache.hadoop.hbase.regionserver中的接口
-
Manages the store files and basic metadata about that that determines the logical structure
(e.g. what files to return for scan, how to determine split point, and such).
- StoreFileReader - org.apache.hadoop.hbase.regionserver中的类
-
Reader for a StoreFile.
- StoreFileReader(FileSystem, Path, CacheConfig, boolean, AtomicInteger, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- StoreFileReader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, boolean, AtomicInteger, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- StorefileRefresherChore - org.apache.hadoop.hbase.regionserver中的类
-
A chore for refreshing the store files for secondary regions hosted in the region server.
- StorefileRefresherChore(int, boolean, HRegionServer, Stoppable) - 类 的构造器org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- StoreFileScanner - org.apache.hadoop.hbase.regionserver中的类
-
KeyValueScanner adaptor over the Reader.
- StoreFileScanner(StoreFileReader, HFileScanner, boolean, boolean, long, long, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- StoreFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
A StoreFile writer.
- StoreFileWriter.Builder - org.apache.hadoop.hbase.regionserver中的类
-
- storeFlusher - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- StoreHotnessProtector - org.apache.hadoop.hbase.regionserver.throttle中的类
-
StoreHotnessProtector is designed to help limit the concurrency of puts with dense columns, it
does best-effort to avoid exhausting all RS's handlers.
- StoreHotnessProtector(Region, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- stores - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegion
-
- StoreScanner - org.apache.hadoop.hbase.regionserver中的类
-
Scanner scans both the memstore and the Store.
- StoreScanner(HStore, ScanInfo, Scan, NavigableSet<byte[]>, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Opens a scanner across memstore, snapshot, and all StoreFiles.
- StoreScanner(HStore, ScanInfo, List<? extends KeyValueScanner>, ScanType, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Used for store file compaction and memstore compaction.
- StoreScanner(HStore, ScanInfo, List<? extends KeyValueScanner>, long, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Used for compactions that drop deletes from a limited range of rows.
- StoreScanner(ScanInfo, ScanType, List<? extends KeyValueScanner>) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
- STORESCANNER_PARALLEL_SEEK_ENABLE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- STORESCANNER_PREAD_MAX_BYTES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
If the read type if Scan.ReadType.DEFAULT, we will start with pread, and if the kvs we scanned
reaches this limit, we will reopen the scanner with stream.
- StoreUtils - org.apache.hadoop.hbase.regionserver中的类
-
Utility functions for region server storage layer.
- StoreUtils() - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreUtils
-
- StreamLacksCapabilityException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.util.CommonFSUtils.StreamLacksCapabilityException
-
- StreamLacksCapabilityException(String) - 异常错误 的构造器org.apache.hadoop.hbase.util.CommonFSUtils.StreamLacksCapabilityException
-
- StreamUtils - org.apache.hadoop.hbase.io.util中的类
-
- StreamUtils() - 类 的构造器org.apache.hadoop.hbase.io.util.StreamUtils
-
- STRING - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
String overhead
- STRING_VIS_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.TagType
-
- stringify(Class<?>[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Classes
-
- Strings - org.apache.hadoop.hbase.util中的类
-
Utility for Strings.
- Strings() - 类 的构造器org.apache.hadoop.hbase.util.Strings
-
- STRIPE_END_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- STRIPE_START_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
The file metadata fields that contain the stripe information.
- StripeCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for stripe compaction if range drop deletes is used.
- StripeCompactionScanQueryMatcher(ScanInfo, DeleteTracker, ColumnTracker, long, long, long, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- StripeFlushRequest(CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- StripeMultiFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
Base class for cell sink that separates the provided cells into multiple files for stripe
compaction.
- StripeMultiFileWriter(CellComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- StripeMultiFileWriter.BoundaryMultiWriter - org.apache.hadoop.hbase.regionserver中的类
-
MultiWriter that separates the cells based on fixed row-key boundaries.
- StripeMultiFileWriter.SizeMultiWriter - org.apache.hadoop.hbase.regionserver中的类
-
MultiWriter that separates the cells based on target cell number per file and file count.
- StripeStoreConfig - org.apache.hadoop.hbase.regionserver中的类
-
Configuration class for stripe store and compactions.
- StripeStoreConfig(Configuration, StoreConfigInformation) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- StripeStoreEngine - org.apache.hadoop.hbase.regionserver中的类
-
The storage engine that implements the stripe-based store/compaction scheme.
- StripeStoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- StripeStoreFileManager - org.apache.hadoop.hbase.regionserver中的类
-
Stripe implementation of StoreFileManager.
- StripeStoreFileManager(CellComparator, Configuration, StripeStoreConfig) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- StripeStoreFlusher - org.apache.hadoop.hbase.regionserver中的类
-
Stripe implementation of StoreFlusher.
- StripeStoreFlusher(Configuration, HStore, StripeCompactionPolicy, StripeStoreFileManager) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher
-
- StripeStoreFlusher.BoundaryStripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper based on boundaries.
- StripeStoreFlusher.SizeStripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper based on size.
- StripeStoreFlusher.StripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper that writes a non-striped file.
- strToRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- strToRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- strToRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- Struct - org.apache.hadoop.hbase.types中的类
-
Struct is a simple
DataType for implementing "compound
rowkey" and "compound qualifier" schema design strategies.
- Struct(DataType[]) - 类 的构造器org.apache.hadoop.hbase.types.Struct
-
Create a new Struct instance defined as the sequence of
HDataTypes in memberTypes.
- StructBuilder - org.apache.hadoop.hbase.types中的类
-
A helper for building
Struct instances.
- StructBuilder() - 类 的构造器org.apache.hadoop.hbase.types.StructBuilder
-
Create an empty StructBuilder.
- StructIterator - org.apache.hadoop.hbase.types中的类
-
An
Iterator over encoded
Struct members.
- StructIterator(PositionedByteRange, DataType[]) - 类 的构造器org.apache.hadoop.hbase.types.StructIterator
-
Construct StructIterator over the values encoded in src
using the specified types definition.
- stub - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- stub - 类 中的变量org.apache.hadoop.hbase.client.RegionServerCallable
-
- subFiltersIncludedCell - 类 中的变量org.apache.hadoop.hbase.filter.FilterListBase
-
For each sub-filter in filter list, we save a boolean flag to indicate that whether the return
code of filterCell(c) for sub-filter is INCLUDE* (INCLUDE, INCLUDE_AND_NEXT_COL,
INCLUDE_AND_SEEK_NEXT_ROW) case. if true, we need to transform cell for the sub-filter.
- subList(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- subMap(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- subMap(Cell, boolean, Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- subMap(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- subMap(K, K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- subMap(K, boolean, K, boolean) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- submit(RetryingCallable<V>, int, int) - 类 中的方法org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
- submit(Callable<V>) - 类 中的方法org.apache.hadoop.hbase.util.BoundedCompletionService
-
- submitTask(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- submitTask(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- subset(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.HBaseConfiguration
-
Returns a subset of the configuration properties, matching the given key prefix.
- subSet(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- subSet(Cell, boolean, Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- SubstringComparator - org.apache.hadoop.hbase.filter中的类
-
This comparator is for use with SingleColumnValueFilter, for filtering based on
the value of a given column.
- SubstringComparator(String) - 类 的构造器org.apache.hadoop.hbase.filter.SubstringComparator
-
Constructor
- substringType - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
SubstringType byte array
- SUBSYSTEM_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.JSONMetricUtil
-
- SUCCESSFUL_APPEND_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- SUCCESSFUL_DELETE_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- SUCCESSFUL_GET_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- SUCCESSFUL_INCREMENT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- SUCCESSFUL_PUT_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- SUCCESSFUL_SCAN_KEY - 接口 中的静态变量org.apache.hadoop.hbase.rest.MetricsRESTSource
-
- sum() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStatsAggregator
-
- summarize() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- SUN_MGMT_DOMAIN - 类 中的静态变量org.apache.hadoop.hbase.util.JSONMetricUtil
-
- SUPERUSER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.security.Superusers
-
Configuration key for superusers
- Superusers - org.apache.hadoop.hbase.security中的类
-
Keeps lists of superusers and super groups loaded from HBase configuration,
checks if certain user is regarded as superuser.
- supportsAutoLoading() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- supportsAutoLoading() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilter
-
- suspend() - 接口 中的方法org.apache.hadoop.hbase.client.AdvancedScanResultConsumer.ScanController
-
Suspend the scan.
- suspendEncoding() - 类 中的方法org.apache.hadoop.hbase.util.Base64.Base64OutputStream
-
Suspends encoding of the stream.
- swap(VersionedSegmentsList, ImmutableSegment, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionPipeline
-
Swaps the versioned list at the tail of the pipeline with a new segment.
- swapCompactedSegments(VersionedSegmentsList, ImmutableSegment, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactingMemStore
-
- SWITCH_TO_SIMPLE_AUTH - 类 中的静态变量org.apache.hadoop.hbase.security.SaslUtil
-
- switchZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- sync() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- sync(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncFSWAL
-
- sync() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AsyncProtobufLogWriter
-
- sync() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- sync() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Sync what we have in the WAL.
- sync(long) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Sync the WAL if the txId was not already sync'd.
- sync(boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- sync(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- sync() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.AsyncWriter
-
- sync(boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.Writer
-
- sync(String, AsyncCallback.VoidCallback, Object) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper
-
- sync(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
Forces a synchronization of this ZooKeeper client connection.
- SYNC_OPERATION_LATENCY_DESC - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- SYNC_OPERATION_LATENCY_NAME - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- SYNC_TIME - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- SYNC_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.wal.MetricsWALSource
-
- SYNC_TIMERANGE_TRACKER - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for SyncTimeRangeTracker
- SyncMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- SyncTable - org.apache.hadoop.hbase.mapreduce中的类
-
- SyncTable(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.SyncTable
-
- SyncTable.SyncMapper - org.apache.hadoop.hbase.mapreduce中的类
-
- SyncTable.SyncMapper.Counter - org.apache.hadoop.hbase.mapreduce中的枚举
-
- SYSTEM_CACHE_FLUSH_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Default interval for System tables memstore flush
- SYSTEM_NAMESPACE - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- SYSTEM_NAMESPACE_NAME - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
System namespace name.
- SYSTEM_NAMESPACE_NAME_STR - 类 中的静态变量org.apache.hadoop.hbase.NamespaceDescriptor
-
- SYSTEM_TABLES_ON_MASTER - 接口 中的静态变量org.apache.hadoop.hbase.master.LoadBalancer
-
Master carries system tables.
- SYSTEMTABLE_QOS - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
- SystemTableWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Skips WAL edits for all System tables including META
- SystemTableWALEntryFilter() - 类 的构造器org.apache.hadoop.hbase.replication.SystemTableWALEntryFilter
-
- t - 类 中的变量org.apache.hadoop.hbase.util.HashKey
-
- TAB - 类 中的静态变量org.apache.hadoop.hbase.filter.ParseConstants
-
ASCII code for tab
- Table - org.apache.hadoop.hbase.client中的接口
-
Used to communicate with a single HBase table.
- Table.CheckAndMutateBuilder - org.apache.hadoop.hbase.client中的接口
-
A helper class for sending checkAndMutate request.
- TABLE_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The catalog family
- TABLE_FAMILY_STR - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The catalog family as a string
- TABLE_MAP_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- TABLE_MAX_ROWSIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Default max row size (1 Gb).
- TABLE_MAX_ROWSIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Max size of single row for Get's or Scan's without in-row scanning flag set.
- TABLE_MULTIPLEXER_FLUSH_PERIOD_MS - 类 中的静态变量org.apache.hadoop.hbase.client.HTableMultiplexer
-
- TABLE_MULTIPLEXER_INIT_THREADS - 类 中的静态变量org.apache.hadoop.hbase.client.HTableMultiplexer
-
- TABLE_MULTIPLEXER_MAX_RETRIES_IN_QUEUE - 类 中的静态变量org.apache.hadoop.hbase.client.HTableMultiplexer
-
- TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- TABLE_QUOTA_USAGE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- TABLE_QUOTA_USAGE_NAME - 接口 中的静态变量org.apache.hadoop.hbase.master.MetricsMasterQuotaSource
-
- TABLE_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- TABLE_SIZE_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- TABLE_STATE_QUALIFIER - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
The serialized table state qualifier
- TableBuilder - org.apache.hadoop.hbase.client中的接口
-
For creating
Table instance.
- TableCFs - org.apache.hadoop.hbase.client.replication中的类
-
- TableCFs(TableName, Map<String, Integer>) - 类 的构造器org.apache.hadoop.hbase.client.replication.TableCFs
-
- TableDescriptor - org.apache.hadoop.hbase.client中的接口
-
TableDescriptor contains the details about an HBase table such as the descriptors of
all the column families, is the table a catalog table, hbase:meta ,
if the table is read only, the maximum size of the memstore,
when the region split should occur, coprocessors associated with it etc...
- TableDescriptorBuilder - org.apache.hadoop.hbase.client中的类
-
- TableDescriptorBuilder.ModifyableTableDescriptor - org.apache.hadoop.hbase.client中的类
-
TODO: make this private after removing the HTableDescriptor
- tableDescriptors - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Go here to get table descriptors.
- TableDescriptors - org.apache.hadoop.hbase中的接口
-
Get, remove and modify table descriptors.
- TableDescriptorUtils - org.apache.hadoop.hbase.client中的类
-
- TableDescriptorUtils.TableDescriptorDelta - org.apache.hadoop.hbase.client中的类
-
- tableExists(AsyncTable<?>, TableName) - 类 中的静态方法org.apache.hadoop.hbase.AsyncMetaTableAccessor
-
- tableExists(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- tableExists(TableName) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
- tableExists(TableName) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- tableExists(Connection, TableName) - 类 中的静态方法org.apache.hadoop.hbase.MetaTableAccessor
-
Checks if the specified table exists.
- TableExistsException - org.apache.hadoop.hbase中的异常错误
-
Thrown when a table exists but should not
- TableExistsException() - 异常错误 的构造器org.apache.hadoop.hbase.TableExistsException
-
default constructor
- TableExistsException(String) - 异常错误 的构造器org.apache.hadoop.hbase.TableExistsException
-
Constructor
- TableExistsException(TableName) - 异常错误 的构造器org.apache.hadoop.hbase.TableExistsException
-
- TableFuture(HBaseAdmin, TableName, Long) - 类 的构造器org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- tableHasErrors(HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- TableHash() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- TableInfoMissingException - org.apache.hadoop.hbase中的异常错误
-
Failed to find .tableinfo file under table dir
- TableInfoMissingException() - 异常错误 的构造器org.apache.hadoop.hbase.TableInfoMissingException
-
- TableInfoMissingException(String) - 异常错误 的构造器org.apache.hadoop.hbase.TableInfoMissingException
-
- TableInfoMissingException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.TableInfoMissingException
-
- TableInfoMissingException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.TableInfoMissingException
-
- TableInputFormat - org.apache.hadoop.hbase.mapred中的类
-
Convert HBase tabular data into a format that is consumable by Map/Reduce.
- TableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableInputFormat
-
- TableInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Convert HBase tabular data into a format that is consumable by Map/Reduce.
- TableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- TableInputFormatBase - org.apache.hadoop.hbase.mapred中的类
-
- TableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- TableInputFormatBase - org.apache.hadoop.hbase.mapreduce中的类
-
- TableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- TableIntegrityErrorHandler - org.apache.hadoop.hbase.util.hbck中的接口
-
This interface provides callbacks for handling particular table integrity
invariant violations.
- TableIntegrityErrorHandlerImpl - org.apache.hadoop.hbase.util.hbck中的类
-
Simple implementation of TableIntegrityErrorHandler.
- TableIntegrityErrorHandlerImpl() - 类 的构造器org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
- tableLock(TableName, boolean, String, Abortable) - 类 中的方法org.apache.hadoop.hbase.client.locking.LockServiceClient
-
Create a new EntityLock object to acquire an exclusive or shared lock on a table.
- tableLockZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- TableMap<K extends org.apache.hadoop.io.WritableComparable<? super K>,V> - org.apache.hadoop.hbase.mapred中的接口
-
Scan an HBase table to sort by a specified sort column.
- TableMapper<KEYOUT,VALUEOUT> - org.apache.hadoop.hbase.mapreduce中的类
-
Extends the base Mapper class to add the required input key
and value classes.
- TableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableMapper
-
- TableMapReduceUtil - org.apache.hadoop.hbase.mapred中的类
-
- TableMapReduceUtil() - 类 的构造器org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- TableMapReduceUtil - org.apache.hadoop.hbase.mapreduce中的类
-
- TableMapReduceUtil() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- TableMetricsWrapperRunnable() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable
-
- tableName - 类 中的变量org.apache.hadoop.hbase.client.ClientScanner
-
- tableName - 类 中的变量org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- tableName - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- tableName - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactor
-
- TableName - org.apache.hadoop.hbase中的类
-
Immutable POJO class for representing a table name.
- TableNamespaceManager - org.apache.hadoop.hbase.master中的类
-
This is a helper class used internally to manage the namespace metadata that is stored in
TableName.NAMESPACE_TABLE_NAME.
- TableNotDisabledException - org.apache.hadoop.hbase中的异常错误
-
Thrown if a table should be offline but is not
- TableNotDisabledException() - 异常错误 的构造器org.apache.hadoop.hbase.TableNotDisabledException
-
default constructor
- TableNotDisabledException(String) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotDisabledException
-
Constructor
- TableNotDisabledException(byte[]) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotDisabledException
-
- TableNotDisabledException(TableName) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotDisabledException
-
- TableNotEnabledException - org.apache.hadoop.hbase中的异常错误
-
Thrown if a table should be enabled but is not
- TableNotEnabledException() - 异常错误 的构造器org.apache.hadoop.hbase.TableNotEnabledException
-
default constructor
- TableNotEnabledException(String) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotEnabledException
-
Constructor
- TableNotEnabledException(TableName) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotEnabledException
-
- TableNotEnabledException(byte[]) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotEnabledException
-
- TableNotFoundException - org.apache.hadoop.hbase中的异常错误
-
Thrown when a table can not be located
- TableNotFoundException() - 异常错误 的构造器org.apache.hadoop.hbase.TableNotFoundException
-
default constructor
- TableNotFoundException(String) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotFoundException
-
- TableNotFoundException(byte[]) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotFoundException
-
- TableNotFoundException(TableName) - 异常错误 的构造器org.apache.hadoop.hbase.TableNotFoundException
-
- TableOutputCommitter - org.apache.hadoop.hbase.mapreduce中的类
-
Small committer class that does not do anything.
- TableOutputCommitter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- TableOutputFormat - org.apache.hadoop.hbase.mapred中的类
-
Convert Map/Reduce output and write it to an HBase table
- TableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat
-
- TableOutputFormat<KEY> - org.apache.hadoop.hbase.mapreduce中的类
-
Convert Map/Reduce output and write it to an HBase table.
- TableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- TableOutputFormat.TableRecordWriter - org.apache.hadoop.hbase.mapred中的类
-
Convert Reduce output (key, value) to (HStoreKey, KeyedDataArrayWritable)
and write to an HBase table.
- TableOutputFormat.TableRecordWriter - org.apache.hadoop.hbase.mapreduce中的类
-
Writes the reducer output to an HBase table.
- TablePartiallyOpenException - org.apache.hadoop.hbase.snapshot中的异常错误
-
Thrown if a table should be online/offline but is partially open
- TablePartiallyOpenException() - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.TablePartiallyOpenException
-
- TablePartiallyOpenException(String) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.TablePartiallyOpenException
-
- TablePartiallyOpenException(TableName) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.TablePartiallyOpenException
-
- TablePartiallyOpenException(byte[]) - 异常错误 的构造器org.apache.hadoop.hbase.snapshot.TablePartiallyOpenException
-
- TableQuotaSnapshotStore - org.apache.hadoop.hbase.quotas中的类
-
- TableQuotaSnapshotStore(Connection, QuotaObserverChore, Map<RegionInfo, Long>) - 类 的构造器org.apache.hadoop.hbase.quotas.TableQuotaSnapshotStore
-
- TableRecordReader - org.apache.hadoop.hbase.mapred中的类
-
Iterate over an HBase table data, return (Text, RowResult) pairs
- TableRecordReader() - 类 的构造器org.apache.hadoop.hbase.mapred.TableRecordReader
-
- TableRecordReader - org.apache.hadoop.hbase.mapreduce中的类
-
Iterate over an HBase table data, return (ImmutableBytesWritable, Result)
pairs.
- TableRecordReader() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
- TableRecordReaderImpl - org.apache.hadoop.hbase.mapred中的类
-
Iterate over an HBase table data, return (Text, RowResult) pairs
- TableRecordReaderImpl() - 类 的构造器org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- TableRecordReaderImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Iterate over an HBase table data, return (ImmutableBytesWritable, Result)
pairs.
- TableRecordReaderImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
- TableRecordWriter(BufferedMutator) - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
- TableRecordWriter(JobConf) - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
Instantiate a TableRecordWriter with a BufferedMutator for batch writing.
- TableRecordWriter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputFormat.TableRecordWriter
-
- TableReduce<K extends org.apache.hadoop.io.WritableComparable,V> - org.apache.hadoop.hbase.mapred中的接口
-
Write a table, sorting by the input key
- TableReducer<KEYIN,VALUEIN,KEYOUT> - org.apache.hadoop.hbase.mapreduce中的类
-
Extends the basic Reducer class to add the required key and
value input/output classes.
- TableReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableReducer
-
- TableResource - org.apache.hadoop.hbase.rest中的类
-
- TableResource(String) - 类 的构造器org.apache.hadoop.hbase.rest.TableResource
-
Constructor
- TABLES_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- TABLES_ON_MASTER - 接口 中的静态变量org.apache.hadoop.hbase.master.LoadBalancer
-
Master can carry regions as of hbase-2.0.0.
- TableScanResource - org.apache.hadoop.hbase.rest中的类
-
- TableScanResource(ResultScanner, int) - 类 的构造器org.apache.hadoop.hbase.rest.TableScanResource
-
- TableScanResource.CellSetModelStream - org.apache.hadoop.hbase.rest中的类
-
- tableSeparator - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- TableSnapshotInputFormat - org.apache.hadoop.hbase.mapred中的类
-
TableSnapshotInputFormat allows a MapReduce job to run over a table snapshot.
- TableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- TableSnapshotInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
TableSnapshotInputFormat allows a MapReduce job to run over a table snapshot.
- TableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit - org.apache.hadoop.hbase.mapred中的类
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit - org.apache.hadoop.hbase.mapreduce中的类
-
- TableSnapshotInputFormatImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Hadoop MR API-agnostic implementation for mapreduce over table snapshots.
- TableSnapshotInputFormatImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- TableSnapshotInputFormatImpl.InputSplit - org.apache.hadoop.hbase.mapreduce中的类
-
Implementation class for InputSplit logic common between mapred and mapreduce.
- TableSnapshotInputFormatImpl.RecordReader - org.apache.hadoop.hbase.mapreduce中的类
-
Implementation class for RecordReader logic common between mapred and mapreduce.
- TableSnapshotRegionSplit() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotRegionSplit(TableSnapshotInputFormatImpl.InputSplit) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotRegionSplit(HTableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotRegionSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotRegionSplit(TableSnapshotInputFormatImpl.InputSplit) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotRegionSplit(HTableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotScanner - org.apache.hadoop.hbase.client中的类
-
A Scanner which performs a scan over snapshot files.
- TableSnapshotScanner(Configuration, Path, String, Scan) - 类 的构造器org.apache.hadoop.hbase.client.TableSnapshotScanner
-
Creates a TableSnapshotScanner.
- TableSnapshotScanner(Configuration, Path, Path, String, Scan) - 类 的构造器org.apache.hadoop.hbase.client.TableSnapshotScanner
-
- TableSnapshotScanner(Configuration, Path, Path, String, Scan, boolean) - 类 的构造器org.apache.hadoop.hbase.client.TableSnapshotScanner
-
Creates a TableSnapshotScanner.
- TableSpaceQuotaSnapshotNotifier - org.apache.hadoop.hbase.quotas中的类
-
- TableSpaceQuotaSnapshotNotifier() - 类 的构造器org.apache.hadoop.hbase.quotas.TableSpaceQuotaSnapshotNotifier
-
- TableSplit - org.apache.hadoop.hbase.mapred中的类
-
A table split corresponds to a key range [low, high)
- TableSplit() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
default constructor
- TableSplit(TableName, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
Constructor
- TableSplit(byte[], byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
- TableSplit - org.apache.hadoop.hbase.mapreduce中的类
-
A table split corresponds to a key range (low, high) and an optional scanner.
- TableSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Default constructor.
- TableSplit(TableName, Scan, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(TableName, Scan, byte[], byte[], String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(TableName, Scan, byte[], byte[], String, String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(TableName, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance without a scanner.
- TableSplit(TableName, byte[], byte[], String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance without a scanner.
- TableState - org.apache.hadoop.hbase.client中的类
-
Represents table state.
- TableState(TableName, TableState.State) - 类 的构造器org.apache.hadoop.hbase.client.TableState
-
Create instance of TableState.
- TableState.State - org.apache.hadoop.hbase.client中的枚举
-
- TableStateManager - org.apache.hadoop.hbase.master中的类
-
This is a helper class used to manage table states.
- TableStateManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.TableStateManager
-
- TableStateManager.TableStateNotFoundException - org.apache.hadoop.hbase.master中的异常错误
-
- TableVisitorBase(TableName) - 类 的构造器org.apache.hadoop.hbase.MetaTableAccessor.TableVisitorBase
-
- TableWaitForStateCallable() - 类 的构造器org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture.TableWaitForStateCallable
-
- tableZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
已过时。
- Tag - org.apache.hadoop.hbase中的接口
-
Tags are part of cells and helps to add metadata about them.
- TAG_LENGTH_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.Tag
-
- TagCompressionContext - org.apache.hadoop.hbase.io中的类
-
Context that holds the dictionary for Tag compression and doing the compress/uncompress.
- TagCompressionContext(Class<? extends Dictionary>, int) - 类 的构造器org.apache.hadoop.hbase.io.TagCompressionContext
-
- tags - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- TAGS_LENGTH_SIZE - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
Size of the tags length field in bytes
- tagsIterator(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
- tagsIterator(Cell) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
Util method to iterate through the tags in the given cell.
- tagsIterator(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- tagsLength - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- tagsOffset - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- tagsPresent - 类 中的变量org.apache.hadoop.hbase.regionserver.Segment
-
- TagType - org.apache.hadoop.hbase中的类
-
- TagType() - 类 的构造器org.apache.hadoop.hbase.TagType
-
- TagUtil - org.apache.hadoop.hbase中的类
-
- tail(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- tailMap(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- tailMap(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- tailMap(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellFlatMap
-
- tailMap(K, boolean) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- tailMap(K) - 类 中的方法org.apache.hadoop.hbase.types.CopyOnWriteArrayMap
-
- tailSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- tailSet(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- tailSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
Returns a subset of the segment cell set, which starts with the given cell
- tailSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
Returns a subset of the segment cell set, which starts with the given cell
- take() - 类 中的方法org.apache.hadoop.hbase.client.ResultBoundedCompletionService
-
- take() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- take() - 类 中的方法org.apache.hadoop.hbase.util.BoundedCompletionService
-
- take() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- take() - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
- takeSnapshotAsync(SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
- targetReplicaId - 类 中的变量org.apache.hadoop.hbase.client.Query
-
- Task() - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- TaskBatch() - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- taskLoop() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Wait for the new tasks and grab one
- taskLoop() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
Wait for tasks to become available at /hbase/splitlog zknode.
- tasksInProgress - 类 中的变量org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- tcpKeepAlive - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- tcpKeepAlive - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- tcpNoDelay - 类 中的变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- tcpNoDelay - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- TEMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.mob.MobConstants
-
- TEMPORARY_FS_DIRECTORY_KEY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Config key for hbase temporary directory in hdfs
- term - 类 中的变量org.apache.hadoop.hbase.types.TerminatedWrapper
-
- terminate() - 接口 中的方法org.apache.hadoop.hbase.client.AdvancedScanResultConsumer.ScanController
-
Terminate the scan.
- TerminatedWrapper<T> - org.apache.hadoop.hbase.types中的类
-
Wraps an existing DataType implementation as a terminated
version of itself.
- TerminatedWrapper(DataType<T>, byte[]) - 类 的构造器org.apache.hadoop.hbase.types.TerminatedWrapper
-
Create a terminated version of the wrapped.
- TerminatedWrapper(DataType<T>, String) - 类 的构造器org.apache.hadoop.hbase.types.TerminatedWrapper
-
Create a terminated version of the wrapped.
- terminatorPosition(PositionedByteRange) - 类 中的方法org.apache.hadoop.hbase.types.TerminatedWrapper
-
Return the position at which term begins within src,
or -1 if term is not found.
- TEST_SKIP_REPORTING_TRANSITION - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
For testing only!
- testCipherProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the configured cipher provider can be loaded and initialized, or
throw an exception.
- testCompression(String) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- testCompression(Compression.Algorithm) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- testEncryption(Configuration, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the specified cipher can be loaded and initialized, or throw
an exception.
- testKeyProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the configured key provider can be loaded and initialized, or
throw an exception.
- testTableCoprocessorAttrs(Configuration, TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Sanity check the table coprocessor attributes of the supplied schema.
- TextSortReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Emits Sorted KeyValues.
- TextSortReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- thenDelete(Delete) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
- thenDelete(Delete) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
- thenMutate(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
- thenMutate(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
- thenPut(Put) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
- thenPut(Put) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
- theUnsafe - 类 中的静态变量org.apache.hadoop.hbase.util.UnsafeAccess
-
- THREAD_WAKE_FREQUENCY - 类 中的静态变量org.apache.hadoop.hbase.HConstants
-
Parameter name for how often threads should wake up
- threadDumpingIsAlive(Thread) - 类 中的静态方法org.apache.hadoop.hbase.util.Threads
-
- Threads - org.apache.hadoop.hbase.util中的类
-
Thread Utility
- Threads() - 类 的构造器org.apache.hadoop.hbase.util.Threads
-
- threadWakeFrequency - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- throttleCompaction(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- ThrottledInputStream - org.apache.hadoop.hbase.io.hadoopbackport中的类
-
The ThrottleInputStream provides bandwidth throttling on a specified
InputStream.
- ThrottledInputStream(InputStream) - 类 的构造器org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
- ThrottledInputStream(InputStream, long) - 类 的构造器org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
-
- throttleNamespace(String, ThrottleType, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Throttle the specified namespace.
- throttleTable(TableName, ThrottleType, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Throttle the specified table.
- ThrottleType - org.apache.hadoop.hbase.quotas中的枚举
-
Describe the Throttle Type.
- throttleUser(String, ThrottleType, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Throttle the specified user.
- throttleUser(String, TableName, ThrottleType, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Throttle the specified user on the specified table.
- throttleUser(String, String, ThrottleType, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettingsFactory
-
Throttle the specified user on the specified namespace.
- ThrottlingException - org.apache.hadoop.hbase.quotas中的异常错误
-
- ThrottlingException(String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- ThrottlingException(ThrottlingException.Type, long, String) - 异常错误 的构造器org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- ThrottlingException.Type - org.apache.hadoop.hbase.quotas中的枚举
-
已过时。
- ThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的接口
-
A utility that constrains the total throughput of one or more simultaneous flows by
sleeping when necessary.
- ThroughputControlUtil - org.apache.hadoop.hbase.regionserver.throttle中的类
-
Helper methods for throttling
- throughputDesc(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- throughputDesc(double) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- throwable(Throwable, boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionAdminServiceCallable
-
- throwable(Throwable, boolean) - 类 中的方法org.apache.hadoop.hbase.client.RegionServerCallable
-
- throwable(Throwable, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.RetryingCallable
-
Called when call throws an exception and we are going to retry; take action to
make it so we succeed on next call (clear caches, do relookup of locations, etc.).
- ThrowableWithExtraContext(Throwable, long, String) - 类 的构造器org.apache.hadoop.hbase.client.RetriesExhaustedException.ThrowableWithExtraContext
-
- throwInterruptedException() - 接口 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture.WaitForStateCallable
-
- throwInterruptedException() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture.TableWaitForStateCallable
-
- throwNumReadRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwNumReadRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- throwNumRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwNumRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- throwNumWriteRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwNumWriteRequestsExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- throwReadSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwReadSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- throwRequestSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwRequestSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- throwTimeoutException(long) - 接口 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.ProcedureFuture.WaitForStateCallable
-
- throwTimeoutException(long) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture.TableWaitForStateCallable
-
- throwWriteSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.RpcThrottlingException
-
- throwWriteSizeExceeded(long) - 异常错误 中的静态方法org.apache.hadoop.hbase.quotas.ThrottlingException
-
已过时。
- TimeBasedLimiter - org.apache.hadoop.hbase.quotas中的类
-
Simple time based limiter that checks the quota Throttle
- timeBeforeReplicas - 类 中的变量org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas
-
- timeOfOldestEdit() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- timeOfOldestEdit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- timeOfOldestEdit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- timeOfOldestEdit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
When was the last edit done in the memstore
- timeout(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionMover.RegionMoverBuilder
-
Set the timeout for Load/Unload operation in seconds.This is a global timeout,threadpool for
movers also have a separate time which is hbase.move.wait.max * number of regions to
load/unload
- TimeoutException - org.apache.hadoop.hbase.errorhandling中的异常错误
-
Exception for timeout of a task.
- TimeoutException(String, long, long, long) - 异常错误 的构造器org.apache.hadoop.hbase.errorhandling.TimeoutException
-
Exception indicating that an operation attempt has timed out
- TimeoutExceptionInjector - org.apache.hadoop.hbase.errorhandling中的类
-
Time a given process/operation and report a failure if the elapsed time exceeds the max allowed
time.
- TimeoutExceptionInjector(ForeignExceptionListener, long) - 类 的构造器org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Create a generic timer for a task/process.
- TimeoutIOException - org.apache.hadoop.hbase.exceptions中的异常错误
-
Exception thrown when a blocking operation times out.
- TimeoutIOException() - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.TimeoutIOException
-
- TimeoutIOException(String) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.TimeoutIOException
-
- TimeoutIOException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.TimeoutIOException
-
- TimeoutIOException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.exceptions.TimeoutIOException
-
- timeRange(TimeRange) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CheckAndMutateBuilder
-
- timeRange(TimeRange) - 接口 中的方法org.apache.hadoop.hbase.client.Table.CheckAndMutateBuilder
-
- TimeRange - org.apache.hadoop.hbase.io中的类
-
Represents an interval of version timestamps.
- TimeRange() - 类 的构造器org.apache.hadoop.hbase.io.TimeRange
-
- TimeRange(long) - 类 的构造器org.apache.hadoop.hbase.io.TimeRange
-
- TimeRange(byte[]) - 类 的构造器org.apache.hadoop.hbase.io.TimeRange
-
- TimeRange(byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.io.TimeRange
-
- TimeRange(long, long) - 类 的构造器org.apache.hadoop.hbase.io.TimeRange
-
- timeRange - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFileReader
-
- TIMERANGE - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for timerange
- TIMERANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStoreFile
-
Key for Timerange information in metadata
- timeRangeTracker - 类 中的变量org.apache.hadoop.hbase.regionserver.Segment
-
- TimeRangeTracker - org.apache.hadoop.hbase.regionserver中的类
-
Stores minimum and maximum timestamp values, it is [minimumTimestamp, maximumTimestamp] in
interval notation.
- TimeRangeTracker() - 类 的构造器org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- TimeRangeTracker.NonSyncTimeRangeTracker - org.apache.hadoop.hbase.regionserver中的类
-
- TimeRangeTracker.SyncTimeRangeTracker - org.apache.hadoop.hbase.regionserver中的类
-
- TimeRangeTracker.Type - org.apache.hadoop.hbase.regionserver中的枚举
-
- timestamp - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- TIMESTAMP_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- TIMESTAMP_SIZE - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
Size of the timestamp field in bytes
- TIMESTAMP_TYPE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
- TIMESTAMPKEY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- TimestampsFilter - org.apache.hadoop.hbase.filter中的类
-
Filter that returns only cells whose timestamp (version) is
in the specified list of timestamps (versions).
- TimestampsFilter(List<Long>) - 类 的构造器org.apache.hadoop.hbase.filter.TimestampsFilter
-
Constructor for filter that retains only the specified timestamps in the list.
- TimestampsFilter(List<Long>, boolean) - 类 的构造器org.apache.hadoop.hbase.filter.TimestampsFilter
-
Constructor for filter that retains only those
cells whose timestamp (version) is in the specified
list of timestamps.
- timeToPurgeDeletes - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.DropDeletesCompactionScanQueryMatcher
-
By default, when hbase.hstore.time.to.purge.deletes is 0ms, a delete marker is always removed
during a major compaction.
- timeToString(TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaSettings
-
- tmpPair - 类 中的变量org.apache.hadoop.hbase.io.encoding.RowIndexSeekerV1
-
- TNAME - 类 中的静态变量org.apache.hadoop.hbase.client.replication.ReplicationAdmin
-
已过时。
- toAppend(ClientProtos.MutationProto, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to an Append
- toArray(List<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSet
-
- toArray(List<byte[]>) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- toAuthorizations(ClientProtos.Authorizations) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Authorizations to a client Authorizations
- toAuthorizations(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Authorizations bytes to a client Authorizations
- toAuthorizations(Authorizations) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer Authorizations based on a client Authorizations.
- toBigDecimal(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads a BigDecimal value at the given buffer's offset.
- toBigDecimal(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a BigDecimal
- toBigDecimal(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a BigDecimal value
- toBinaryByteArrays(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toBinaryFromHex(byte) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Takes a ASCII digit in the range A-F0-9 and returns
the corresponding integer/ordinal value.
- toBoolean(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toBulkLoadDescriptor(TableName, ByteString, Map<byte[], List<Path>>, Map<String, Long>, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Generates a marker for the WAL so that we propagate the notion of a bulk region load
throughout the WAL.
- toByte() - 枚举 中的方法org.apache.hadoop.hbase.client.IsolationLevel
-
- toByte(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- toByte(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Returns the byte at the given offset
- toByte(Object, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Returns the byte at the given offset of the object
- toByteArray(ColumnFamilyDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- toByteArray(RegionInfo) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
- toByteArray(ReplicationPeerConfig) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- toByteArray(TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.client.TableDescriptorBuilder
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.ClusterId
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.BigDecimalComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.BinaryComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.BinaryPrefixComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.BitComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ByteArrayComparable
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FamilyFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
TODO: JAVADOC
Concrete implementers can signal a failure condition in their code by throwing an
IOException.
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
Return length 0 byte array for Filters that don't require special serialization
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FirstKeyValueMatchingQualifiersFilter
-
已过时。
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.FuzzyRowFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.KeyOnlyFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.LongComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.MultiRowRangeFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.NullComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.PageFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.QualifierFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.RandomRowFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.RegexStringComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.RowFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.SubstringComparator
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.ValueFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.io.ByteArrayOutputStream
-
Copies the content of this Stream into a new byte array.
- toByteArray(int, int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferListOutputStream
-
- toByteArray(int, int) - 类 中的方法org.apache.hadoop.hbase.io.ByteBufferOutputStream
-
- toByteArray(TimeRangeTracker) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- toByteArray(ReplicationProtos.ReplicationState.State) - 类 中的静态方法org.apache.hadoop.hbase.replication.ZKReplicationStorageBase
-
Serialized protobuf of state with pb magic prefix prepended suitable for use as
content of a peer-state znode under a peer cluster id as in
/hbase/replication/peers/PEER_ID/peer-state.
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- toByteArrayComparable(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toByteArrays(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toByteArrays(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toByteArrays(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toByteBufferAndRewind(Iterable<? extends KeyValue>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- toBytes() - 枚举 中的方法org.apache.hadoop.hbase.client.IsolationLevel
-
- toBytes() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copy the content from this ByteBuff to a byte[].
- toBytes(int, int) - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
Copy the content from this ByteBuff to a byte[] based on the given offset and
length
- toBytes(int, int) - 类 中的方法org.apache.hadoop.hbase.nio.MultiByteBuff
-
Copy the content from this MBB to a byte[] based on the given offset and
length
- toBytes(int, int) - 类 中的方法org.apache.hadoop.hbase.nio.SingleByteBuff
-
- toBytes(ByteString) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toBytes() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- toBytes(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy the bytes from position to limit into a new byte[] of the exact length and sets the
position and limit back to their original values (though not thread safe).
- toBytes(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Copy the given number of bytes from specified offset into a new byte[]
- toBytes(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Returns a new byte array, copied from the given buf,
from the index 0 (inclusive) to the limit (exclusive),
regardless of the current position.
- toBytes(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a string to a UTF-8 byte array.
- toBytes(boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert a boolean to a byte array.
- toBytes(long) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert a long value to a byte array using big-endian.
- toBytes(float) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toBytes(double) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Serialize a double as the IEEE 754 double format output.
- toBytes(int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert an int value to a byte array.
- toBytes(short) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toBytes(BigDecimal) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert a BigDecimal value to a byte array
- toBytesBinary(String) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toByteString() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- toCacheEvictionStats(HBaseProtos.CacheEvictionStats) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCacheEvictionStats(CacheEvictionStats) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCell(Cell) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCell(ExtendedCellBuilder, CellProtos.Cell) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCellVisibility(ClientProtos.CellVisibility) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer CellVisibility to a client CellVisibility
- toCellVisibility(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer CellVisibility bytes to a client CellVisibility
- toCellVisibility(CellVisibility) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer CellVisibility based on a client CellVisibility.
- toClusterMetrics(ClusterStatusProtos.ClusterStatus) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- toClusterStatus(ClusterMetrics) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
- toColumnFamilyDescriptor(HBaseProtos.ColumnFamilySchema) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts a ColumnFamilySchema to ColumnFamilyDescriptor
- toColumnFamilySchema(ColumnFamilyDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts an ColumnFamilyDescriptor to ColumnFamilySchema
- toCompactionDescriptor(RegionInfo, byte[], List<Path>, List<Path>, Path) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCompactionDescriptor(RegionInfo, byte[], byte[], List<Path>, List<Path>, Path) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toComparator(ByteArrayComparable) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a ByteArrayComparable to a protocol buffer Comparator
- toComparator(ComparatorProtos.Comparator) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Comparator to a ByteArrayComparable
- toConsistency(ClientProtos.Consistency) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toConsistency(Consistency) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCoprocessor(Collection<String>) - 类 中的静态方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- toCursor(Cursor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCursor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toCursor(ClientProtos.Cursor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toDelete(ClientProtos.MutationProto) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to a Delete
- toDelete(ClientProtos.MutationProto, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to a Delete
- toDeleteType(KeyValue.Type) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a delete KeyValue type to protocol buffer DeleteType.
- toDelimitedByteArray(RegionInfo...) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Serializes given RegionInfo's as a byte array.
- toDelimitedByteArray(RegionInfo) - 接口 中的静态方法org.apache.hadoop.hbase.client.RegionInfo
-
Use this instead of
RegionInfo.toByteArray(RegionInfo) when writing to a stream and you want to use
the pb mergeDelimitedFrom (w/o the delimiter, pb reads to EOF which may not be what you want).
- toDelimitedByteArray() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
- toDelimitedByteArray(HRegionInfo...) - 类 中的静态方法org.apache.hadoop.hbase.HRegionInfo
-
- toDelimitedByteArray(Message) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toDescriptiveString() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
A slower (but more easy-to-read) stringification
- toDouble(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads a double value at the given buffer's offset.
- toDouble(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toDurability(ClientProtos.MutationProto.Durability) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protobuf Durability into a client Durability
- toDurability(Durability) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Durability into a protbuf Durability
- toException(HBaseProtos.NameBytesPair) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a stringified protocol buffer exception Parameter to a Java Exception
- toException(ErrorHandlingProtos.ForeignExceptionMessage) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
- toFilter(FilterProtos.Filter) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Filter to a client Filter
- toFilter(Filter) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Filter to a protocol buffer Filter
- toFloat(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Presumes float encoded as IEEE 754 floating-point "single format"
- toFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Presumes float encoded as IEEE 754 floating-point "single format"
- toFlushDescriptor(WALProtos.FlushDescriptor.FlushAction, RegionInfo, long, Map<byte[], List<Path>>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toGet(ClientProtos.Get) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Get to a client Get
- toGet(ClientProtos.MutationProto, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to a Get.
- toGet(Get) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer Get based on a client Get.
- toGroupEntry(String) - 类 中的静态方法org.apache.hadoop.hbase.AuthUtil
-
Returns the group entry with the group prefix for a group principal.
- toHColumnDescriptor(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.client.ImmutableHTableDescriptor
-
已过时。
- toHColumnDescriptor(ColumnFamilyDescriptor) - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
Return a HColumnDescriptor for user to keep the compatibility as much as possible.
- toHex(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert a byte range into a hex string
- toHex(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Convert a byte array into a hex string
- toIncrement(ClientProtos.MutationProto, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to an Increment
- toInt(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads an int value at the given buffer's current position.
- toInt(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads an int value at the given buffer's offset.
- toInt(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to an int value
- toInt(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to an int value
- toInt(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to an int value
- toInt(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Converts a byte array to an int value considering it was written in big-endian format.
- toInt(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads an int value at the given buffer's offset considering it was written in big-endian
format.
- toInt(Object, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads a int value at the given Object's offset considering it was written in big-endian
format.
- toIntUnsafe(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toIOException(ServiceException) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Unwraps an exception from a protobuf service into the underlying (expected) IOException.
- toIOException(ErrorHandlingProtos.ForeignExceptionMessage) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
- toJSON(int) - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a JSON object for fingerprint and details exposure in a
parseable format.
- toJSON() - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a JSON object sufficient for description of a query
in a debugging or logging context.
- toJSON(String, NavigableSet<CachedBlock>) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toJSON(BlockCacheUtil.CachedBlocksByFile) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toJSON(BlockCache) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- TOKEN_HANDLERS - 类 中的静态变量org.apache.hadoop.hbase.ipc.AbstractRpcClient
-
- toLockJson(List<LockServiceProtos.LockedResource>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toLong(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads a long value at the given buffer's offset.
- toLong(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a long value.
- toLong(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a long value.
- toLong(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a long value.
- toLong(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Converts a byte array to a long value considering it was written in big-endian format.
- toLong(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads a long value at the given buffer's offset considering it was written in big-endian
format.
- toLong(Object, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads a long value at the given Object's offset considering it was written in big-endian
format.
- toLongUnsafe(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toMap(int) - 类 中的方法org.apache.hadoop.hbase.client.Get
-
Compile the details beyond the scope of getFingerprint (row, columns,
timestamps, etc.) into a Map along with the fingerprinted information.
- toMap(int) - 类 中的方法org.apache.hadoop.hbase.client.Mutation
-
Compile the details beyond the scope of getFingerprint (row, columns,
timestamps, etc.) into a Map along with the fingerprinted information.
- toMap(int) - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a Map containing a summary of the details of a query
beyond the scope of the fingerprint (i.e. columns, rows...)
- toMap() - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a Map containing a full summary of a query.
- toMap(int) - 类 中的方法org.apache.hadoop.hbase.client.Scan
-
Compile the details beyond the scope of getFingerprint (row, columns,
timestamps, etc.) into a Map along with the fingerprinted information.
- toMutation(ClientProtos.MutationProto) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a MutateRequest to Mutation
- toMutation(ClientProtos.MutationProto.MutationType, Mutation) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toMutation(ClientProtos.MutationProto.MutationType, Mutation, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer Mutate based on a client Mutation
- toMutation(ClientProtos.MutationProto.MutationType, Mutation, ClientProtos.MutationProto.Builder) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toMutation(ClientProtos.MutationProto.MutationType, Mutation, ClientProtos.MutationProto.Builder, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toMutationNoData(ClientProtos.MutationProto.MutationType, Mutation, ClientProtos.MutationProto.Builder) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer MutationProto based on a client Mutation.
- toMutationNoData(ClientProtos.MutationProto.MutationType, Mutation) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Create a protocol buffer MutationProto based on a client Mutation.
- toMutationNoData(ClientProtos.MutationProto.MutationType, Mutation, ClientProtos.MutationProto.Builder, long) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toNamespaceDescriptor(HBaseProtos.NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toNamespaceDescriptorList(MasterProtos.ListNamespaceDescriptorsResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get a list of NamespaceDescriptor from ListNamespaceDescriptorsResponse protobuf
- toNewKeyCell(Cell) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
Copies the key to a new KeyValue
- TOOLS - 类 中的静态变量org.apache.hadoop.hbase.HBaseInterfaceAudience
-
Denotes classes used as tools (Used from cmd line).
- toOption(ClusterStatusProtos.Option) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
Convert ClusterStatusProtos.Option to ClusterMetrics.Option
- toOption(ClusterMetrics.Option) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
Convert ClusterMetrics.Option to ClusterStatusProtos.Option
- toOptionalTimestamp(MasterProtos.MajorCompactionTimestampResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toOptions(List<ClusterStatusProtos.Option>) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
Convert a list of ClusterStatusProtos.Option to an enum set of ClusterMetrics.Option
- toOptions(EnumSet<ClusterMetrics.Option>) - 类 中的静态方法org.apache.hadoop.hbase.ClusterMetricsBuilder
-
Convert an enum set of ClusterMetrics.Option to a list of ClusterStatusProtos.Option
- toProcedureJson(List<ProcedureProtos.Procedure>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Helper to convert the protobuf Procedure to JSON String
- toProto(SpaceQuotaSnapshot.SpaceQuotaStatus) - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
- toProtoForeignException(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
- toProtoForeignException(String, Throwable) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
- toProtoNamespaceDescriptor(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toProtoQuotaScope(QuotaScope) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client QuotaScope to a protocol buffer QuotaScope
- toProtoQuotaScope(QuotaType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client QuotaType to a protocol buffer QuotaType
- toProtoReplicationPeerDescription(ReplicationPeerDescription) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- toProtoSnapshot(SpaceQuotaSnapshot) - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
- toProtoSpaceQuota(long, SpaceViolationPolicy) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Builds a protocol buffer SpaceQuota.
- toProtoStackTraceElement(StackTraceElement[]) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
- toProtoTableName(TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toProtoThrottleType(ThrottleType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client ThrottleType to a protocol buffer ThrottleType
- toProtoTimeUnit(TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client TimeUnit to a protocol buffer TimeUnit
- toProtoViolationPolicy(SpaceViolationPolicy) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts a client SpaceViolationPolicy to a protocol buffer SpaceViolationPolicy.
- toPut(ClientProtos.MutationProto) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to a Put.
- toPut(ClientProtos.MutationProto, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Mutate to a Put.
- toQuotas() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
Constructs a new QuotaProtos.Quotas message from this.
- toQuotaScope(QuotaProtos.QuotaScope) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer QuotaScope to a client QuotaScope
- toQuotaScope(QuotaProtos.QuotaType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer QuotaType to a client QuotaType
- toReadType(Scan.ReadType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toReadType(ClientProtos.Scan.ReadType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toRegionEventDescriptor(WALProtos.RegionEventDescriptor.EventType, RegionInfo, long, ServerName, Map<byte[], List<Path>>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toRegionEventDescriptor(WALProtos.RegionEventDescriptor.EventType, byte[], byte[], byte[], long, ServerName, Map<byte[], List<Path>>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toRegionInfo(RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a RegionInfo to a Proto RegionInfo
- toRegionInfo(HBaseProtos.RegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert HBaseProto.RegionInfo to a RegionInfo
- toRegionLoad(RegionMetrics) - 类 中的静态方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- toRegionLocation(HRegionLocation) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toRegionLocation(HBaseProtos.RegionLocation) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toRegionMetrics(AdminProtos.GetRegionLoadResponse) - 类 中的静态方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- toRegionMetrics(ClusterStatusProtos.RegionLoad) - 类 中的静态方法org.apache.hadoop.hbase.RegionMetricsBuilder
-
- toReplicationLoadSink(ClusterStatusProtos.ReplicationLoadSink) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toReplicationLoadSink(ReplicationLoadSink) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toReplicationLoadSource(ClusterStatusProtos.ReplicationLoadSource) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toReplicationLoadSource(ReplicationLoadSource) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toReplicationPeerDescription(ReplicationProtos.ReplicationPeerDescription) - 类 中的静态方法org.apache.hadoop.hbase.client.replication.ReplicationPeerConfigUtil
-
- toResult(Result) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Result to a protocol buffer Result
- toResult(boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Result to a protocol buffer Result
- toResult(ClientProtos.Result) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Result to a client Result
- toResult(ClientProtos.Result, CellScanner) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Result to a client Result
- toResultNoData(Result) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Result to a protocol buffer Result.
- toRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CoprocessorServiceBuilder
-
- toRow(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncTable.CoprocessorServiceBuilder
-
- toScan(Scan) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a client Scan to a protocol buffer Scan
- toScan(ClientProtos.Scan) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer Scan to a client Scan
- toScanMetrics(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toScanMetrics(ScanMetrics, boolean) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toSecurityCapabilityList(List<MasterProtos.SecurityCapabilitiesResponse.Capability>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert SecurityCapabilitiesResponse.Capability to SecurityCapability
- toServerLoad(ServerMetrics) - 类 中的静态方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- toServerMetrics(ClusterStatusProtos.LiveServerInfo) - 类 中的静态方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- toServerMetrics(ServerName, ClusterStatusProtos.ServerLoad) - 类 中的静态方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- toServerMetrics(ServerName, int, String, ClusterStatusProtos.ServerLoad) - 类 中的静态方法org.apache.hadoop.hbase.ServerMetricsBuilder
-
- toServerName(ServerName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a ServerName to a protocol buffer ServerName
- toServerName(HBaseProtos.ServerName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer ServerName to a ServerName
- toServerNameList(List<HBaseProtos.ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a list of protocol buffer ServerName to a list of ServerName
- toShort(byte, byte) - 类 中的静态方法org.apache.hadoop.hbase.io.util.StreamUtils
-
- toShort(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
Reads a short value at the given buffer's offset.
- toShort(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a short value
- toShort(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a short value
- toShort(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts a byte array to a short value
- toShort(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Converts a byte array to a short value considering it was written in big-endian format.
- toShort(ByteBuffer, int) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads a short value at the given buffer's offset considering it was written in big-endian
format.
- toShort(Object, long) - 类 中的静态方法org.apache.hadoop.hbase.util.UnsafeAccess
-
Reads a short value at the given Object's offset considering it was written in big-endian
format.
- toShortString() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCall
-
- toShortString() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- toShortUnsafe(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toSnapshotDescriptionList(MasterProtos.GetCompletedSnapshotsResponse, Pattern) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toSpaceQuotaSnapshot(QuotaProtos.SpaceQuotaSnapshot) - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
- toStackTrace(List<ErrorHandlingProtos.StackTraceElementMessage>) - 类 中的静态方法org.apache.hadoop.hbase.util.ForeignExceptionUtil
-
Unwind a serialized array of
ErrorHandlingProtos.StackTraceElementMessages to a
StackTraceElements.
- toStatus(QuotaProtos.SpaceQuotaStatus) - 类 中的静态方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ArrayBackedTag
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyOnlyKeyValue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ByteBufferKeyValue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ByteBufferTag
-
- toString() - 类 中的方法org.apache.hadoop.hbase.CacheEvictionStats
-
- toString(Cell, boolean) - 类 中的静态方法org.apache.hadoop.hbase.CellUtil
-
Returns a string representation of the cell
- toString() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.NamespaceFuture
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin.TableFuture
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.HTable
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.Increment
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.locking.EntityLock
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.MetricsConnection.CallTracker
-
- toString(int) - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a string representation of this Operation.
- toString() - 类 中的方法org.apache.hadoop.hbase.client.Operation
-
Produces a string representation of this Operation.
- toString() - 类 中的方法org.apache.hadoop.hbase.client.RegionCoprocessorServiceExec
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.replication.TableCFs
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.Result
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.RetriesExhaustedException.ThrowableWithExtraContext
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.RpcRetryingCallerImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.SnapshotDescription
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- toString() - 类 中的方法org.apache.hadoop.hbase.client.TableState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ClusterId
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ClusterStatus
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.CompoundConfiguration
-
- toString() - 类 中的方法org.apache.hadoop.hbase.coprocessor.Export.Response
-
- toString() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnCountGetFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPaginationFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnPrefixFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnRangeFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.ColumnValueFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.CompareFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.DependentColumnFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
Return filter's info for debugging and logging purpose.
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.FuzzyRowFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.InclusiveStopFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- toString(int) - 类 中的方法org.apache.hadoop.hbase.filter.MultipleColumnPrefixFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.PageFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.PrefixFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.SingleColumnValueFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- toString(int) - 类 中的方法org.apache.hadoop.hbase.filter.TimestampsFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- toString() - 类 中的方法org.apache.hadoop.hbase.HRegionInfo
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.HRegionLocation
-
- toString() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Return the host and port of the HttpServer, if live
- toString() - 类 中的方法org.apache.hadoop.hbase.IndividualBytesFieldCell
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.crypto.Context
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.encoding.CopyKeyDataBlockEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.encoding.DiffKeyDeltaEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.encoding.EncodedDataBlock
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.encoding.FastDiffDeltaEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.encoding.PrefixKeyDeltaEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hadoopbackport.ThrottledInputStream
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- toString(CachedBlock, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CompoundBloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileContext
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl.HFileScannerImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.ImmutableBytesWritable
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.TimeRange
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.KeyValue.KeyOnlyKeyValue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the details about this instance as a string.
- toString() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.RegionState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- toString() - 枚举 中的方法org.apache.hadoop.hbase.master.SplitLogManager.TerminationStatus
-
- toString() - 类 中的方法org.apache.hadoop.hbase.MetaTableAccessor.ReplicationBarrierResult
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mob.compactions.PartitionedMobCompactionRequest.CompactionPartitionId
-
- toString() - 类 中的方法org.apache.hadoop.hbase.NamespaceDescriptor
-
- toString() - 类 中的方法org.apache.hadoop.hbase.net.Address
-
- toString() - 类 中的方法org.apache.hadoop.hbase.nio.ByteBuff
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.ActivePolicyEnforcement
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.GlobalQuotaSettingsImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot.SpaceQuotaStatus
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshot
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.RegionLoad
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.RegionLocations
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMemStore
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.Chunk
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompositeImmutableSegment
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.CustomizedScanInfoBuilder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.ImmutableSegment
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactionStrategy
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreCompactor
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSize
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl.WriteEntry
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.Segment
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.SegmentScanner
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.StoreHotnessProtector
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
- toString() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerConfig
-
- toString() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationPeerDescription
-
- toString() - 类 中的方法org.apache.hadoop.hbase.rest.client.Cluster
-
- toString() - 类 中的方法org.apache.hadoop.hbase.rest.RowSpec
-
- toString() - 类 中的方法org.apache.hadoop.hbase.rsgroup.RSGroupInfo
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
A summation of this chore in human readable format.
- toString() - 类 中的方法org.apache.hadoop.hbase.security.User
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ServerLoad
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.ServerName
-
- toString() - 类 中的方法org.apache.hadoop.hbase.Size
-
- toString(SnapshotProtos.SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.ClientSnapshotDescriptionUtils
-
Returns a single line (no \n) representation of snapshot metadata.
- toString() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- toString() - 类 中的方法org.apache.hadoop.hbase.TableName
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.AbstractByteRange
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.BloomFilterChunk
-
- toString(BloomFilterChunk) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterUtil
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.Bytes
-
- toString(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
- toString(byte[], String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Joins two byte arrays together using a separator.
- toString(byte[], int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
This method will convert utf8 encoded bytes into a string.
- toString(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
This method will convert utf8 encoded bytes into a string.
- toString() - 类 中的方法org.apache.hadoop.hbase.util.Counter
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.IdLock.Entry
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.MapReduceExtendedCell
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.NonceKey
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.ObjectIntPair
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.Pair
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.PairOfSameType
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.Triple
-
- toString() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
- toString() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Human readable identifying information about the state of this WAL.
- toString() - 类 中的方法org.apache.hadoop.hbase.wal.WALEdit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.wal.WALKeyImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKNodeTracker
-
- toString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKUtil.NodeAndData
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKWatcher
-
- toString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZNodePaths
-
- toStringBinary(ByteBuff, int, int) - 类 中的静态方法org.apache.hadoop.hbase.nio.ByteBuff
-
- toStringBinary(ByteBuffer, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- toStringBinary(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBufferUtils
-
- toStringBinary(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Write a printable representation of a byte array.
- toStringBinary(ByteBuffer) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Converts the given byte buffer to a printable representation,
from the index 0 (inclusive) to the limit (exclusive),
regardless of the current position.
- toStringBinary(byte[], int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.Bytes
-
Write a printable representation of a byte array.
- toStringCustomizedValues() - 接口 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptor
-
- toStringCustomizedValues() - 类 中的方法org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder.ModifyableColumnFamilyDescriptor
-
- toStringCustomizedValues() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- toStringCustomizedValues() - 类 中的方法org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- toStringCustomizedValues() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- toStringDetailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStoreFile
-
- toStringDetailed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- toStringMap() - 类 中的方法org.apache.hadoop.hbase.KeyValue
-
Produces a string map for this key/value pair.
- toStringMap() - 接口 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Produces a string map for this key.
- toStringMinusFileName(CachedBlock, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toStringTableAttributes() - 类 中的方法org.apache.hadoop.hbase.client.TableDescriptorBuilder.ModifyableTableDescriptor
-
- toStringTableAttributes() - 类 中的方法org.apache.hadoop.hbase.HTableDescriptor
-
已过时。
- toStringUtf8() - 类 中的方法org.apache.hadoop.hbase.util.ImmutableByteArray
-
- toStringWithoutDomain() - 类 中的方法org.apache.hadoop.hbase.net.Address
-
If hostname is a.b.c and the port is 123, return a:123 instead of a.b.c:123.
- toStringWithPadding(Collection<? extends KeyValue>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
toString
- toStringWithPadding(KeyValue, int, int, int, int, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueTestUtil
-
- toStruct() - 类 中的方法org.apache.hadoop.hbase.types.StructBuilder
-
Retrieve the
Struct represented by
this.
- tot_mgr_get_data_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_nonode - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_heartbeat - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_start - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_success - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_start - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_success - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_missing_state_in_delete - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_new_unexpected_wals - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_already_exists - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_null_data - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_orphan_task_acquired - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_relist_logdir - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_rescan - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_rescan_deleted - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_dead_server_task - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_force - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_threshold_reached - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_unassigned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_task_deleted - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_unacquired_orphan_done - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_wait_for_zk_delete - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_exception - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_lost_race - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_no_data - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_owned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_final_transition_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_preempt_task - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_acquired - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_acquired_rescan - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_done - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_grabing - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_heartbeat - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_heartbeat_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_resigned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- toTableDescriptor(HBaseProtos.TableSchema) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts a TableSchema to TableDescriptor
- toTableDescriptorList(MasterProtos.GetTableDescriptorsResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get a list of TableDescriptor from GetTableDescriptorsResponse protobuf
- toTableDescriptorList(MasterProtos.ListTableDescriptorsByNamespaceResponse) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Get a list of TableDescriptor from ListTableDescriptorsByNamespaceResponse protobuf
- toTableName(HBaseProtos.TableName) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toTableNameList(List<HBaseProtos.TableName>) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toTableSchema(TableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts an TableDescriptor to TableSchema
- TOTAL_CALL_TIME_DESC - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- TOTAL_CALL_TIME_NAME - 接口 中的静态变量org.apache.hadoop.hbase.ipc.MetricsHBaseServerSource
-
- TOTAL_FAILED_ZK_CALLS - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- TOTAL_FAILED_ZK_CALLS_DESC - 接口 中的静态变量org.apache.hadoop.hbase.zookeeper.MetricsZooKeeperSource
-
- TOTAL_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- TOTAL_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- TOTAL_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- TOTAL_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsTableSource
-
- TOTAL_ROW_ACTION_REQUEST_COUNT - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- TOTAL_ROW_ACTION_REQUEST_COUNT_DESC - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServerSource
-
- totalByteSize - 类 中的变量org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- totalKeyCount - 类 中的变量org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
The total number of keys in all chunks
- totalKeyLength - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Used for calculating the average key length.
- totalLengthWithMvccVersion(Iterable<? extends KeyValue>, boolean) - 类 中的静态方法org.apache.hadoop.hbase.KeyValueUtil
-
- totalLogSize - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractFSWAL
-
The total size of wal
- totalMaxKeys - 类 中的变量org.apache.hadoop.hbase.io.hfile.CompoundBloomFilterBase
-
- totalUncompressedBytes - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Total uncompressed bytes, maybe calculate a compression ratio later.
- totalValueLength - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterImpl
-
Used for calculating the average value length.
- toText(Message) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toThrottleType(QuotaProtos.ThrottleType) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer ThrottleType to a client ThrottleType
- toTimedQuota(long, TimeUnit, QuotaScope) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Build a protocol buffer TimedQuota
- toTimeRange(HBaseProtos.TimeRange) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toTimeRange(TimeRange) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
- toTimeUnit(HBaseProtos.TimeUnit) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Convert a protocol buffer TimeUnit to a client TimeUnit
- toType(byte) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- toTypeByte(Cell.Type) - 类 中的静态方法org.apache.hadoop.hbase.PrivateCellUtil
-
- toViolationPolicy(QuotaProtos.SpaceViolationPolicy) - 类 中的静态方法org.apache.hadoop.hbase.shaded.protobuf.ProtobufUtil
-
Converts a protocol buffer SpaceViolationPolicy to a client SpaceViolationPolicy.
- tr - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- trackDelete(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- trackPeerConfigChanges(ReplicationPeerConfigListener) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationPeer
-
- trackTimestamps(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileWriter
-
Record the earlest Put timestamp.
- trailer - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- trailer - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- trailerSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- trailerWarnSize - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- trailerWarnSize - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- trailerWritten - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.AbstractProtobufLogWriter
-
- transform(float[][]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Copy a given matrix into a new matrix, transforming each row index and
each column index according to the randomization scheme that was created
at construction time.
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.Filter
-
Give the filter a chance to transform the passed KeyValue.
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterBase
-
By default no transformation takes place
Give the filter a chance to transform the passed KeyValue.
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterList
-
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterListBase
-
For FilterList, we can consider a filter list as a node in a tree. sub-filters of the filter
list are children of the relative node.
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.FilterWrapper
-
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.KeyOnlyFilter
-
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.SkipFilter
-
- transformCell(Cell) - 类 中的方法org.apache.hadoop.hbase.filter.WhileMatchFilter
-
- transformClusterKey(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKConfig
-
Separate the given key into the three configurations it should contain:
hbase.zookeeper.quorum, hbase.zookeeper.client.port
and zookeeper.znode.parent
- transitionTable(TableName, SpaceQuotaSnapshot) - 接口 中的方法org.apache.hadoop.hbase.quotas.SpaceQuotaSnapshotNotifier
-
Informs the cluster of the current state of a space quota for a table.
- transitionTable(TableName, SpaceQuotaSnapshot) - 类 中的方法org.apache.hadoop.hbase.quotas.TableSpaceQuotaSnapshotNotifier
-
- translatePFFE(Throwable) - 类 中的静态方法org.apache.hadoop.hbase.exceptions.ClientExceptionsUtil
-
Translates exception for preemptive fast fail checks.
- TREEMAP - 类 中的静态变量org.apache.hadoop.hbase.util.ClassSize
-
Overhead for TreeMap
- trigger() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Trigger the timer immediately.
- triggerMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- triggerNow(ScheduledChore) - 类 中的方法org.apache.hadoop.hbase.ChoreService
-
- triggerNow() - 类 中的方法org.apache.hadoop.hbase.ScheduledChore
-
- Triple<A,B,C> - org.apache.hadoop.hbase.util中的类
-
Utility class to manage a triple.
- Triple() - 类 的构造器org.apache.hadoop.hbase.util.Triple
-
- Triple(A, B, C) - 类 的构造器org.apache.hadoop.hbase.util.Triple
-
- truncateTable(TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Truncate a table.
- truncateTable(TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.AsyncAdmin
-
Truncate a table.
- truncateTable(TableName, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- truncateTable(RpcController, MasterProtos.TruncateTableRequest) - 类 中的方法org.apache.hadoop.hbase.client.ShortCircuitMasterConnection
-
- truncateTable(TableName, boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- truncateTable(RpcController, MasterProtos.TruncateTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- truncateTable(TableName, boolean, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Truncate a table
- truncateTableAsync(TableName, boolean) - 接口 中的方法org.apache.hadoop.hbase.client.Admin
-
Truncate the table but does not block and wait for it to be completely enabled.
- truncateTableAsync(TableName, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HBaseAdmin
-
- trustStore(String, String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- tryDropDelete(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DropDeletesCompactionScanQueryMatcher
-
- tryRegionServerReport(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- trySkipToNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- trySkipToNextRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
See if we should actually SEEK or rather just SKIP to the next Cell (see HBASE-13109).
- ts - 类 中的变量org.apache.hadoop.hbase.client.Mutation
-
- ts - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Timestamp for all inserted rows
- ts - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.NewVersionBehaviorTracker.DeleteVersionsNode
-
- TsvImporterMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to files in hdfs.
- TsvImporterMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- TsvImporterTextMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to map output files.
- TsvImporterTextMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- TsvParser(String, String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- TTL - 类 中的静态变量org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder
-
- TTL - 类 中的静态变量org.apache.hadoop.hbase.HColumnDescriptor
-
已过时。
- ttl - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- TTL_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.TagType
-
- tune(HeapMemoryManager.TunerContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryTuner
-
Perform the heap memory tuning operation.
- TunerContext() - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- TunerResult(boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- tuningPeriod - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- type() - 类 中的方法org.apache.hadoop.hbase.client.MultiResponse
-
- type() - 类 中的方法org.apache.hadoop.hbase.client.SingleResponse
-
- type - 类 中的变量org.apache.hadoop.hbase.ExtendedCellBuilderImpl
-
- type - 类 中的变量org.apache.hadoop.hbase.mob.compactions.MobCompactionRequest
-
- type - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- TYPE_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.JSONMetricUtil
-
- TYPE_LENGTH_SIZE - 接口 中的静态变量org.apache.hadoop.hbase.Tag
-
- TYPE_SIZE - 类 中的静态变量org.apache.hadoop.hbase.KeyValue
-
Size of the key type field in bytes
- typeA - 类 中的变量org.apache.hadoop.hbase.types.Union2
-
- typeB - 类 中的变量org.apache.hadoop.hbase.types.Union2
-
- typeC - 类 中的变量org.apache.hadoop.hbase.types.Union3
-
- typeD - 类 中的变量org.apache.hadoop.hbase.types.Union4
-
- types - 类 中的变量org.apache.hadoop.hbase.types.StructIterator
-